AI算力需求持续井喷! 韩国“AI鱿鱼游戏”如火如荼 引爆万枚AMD(AMD.US)AI芯片需求

智通财经
Yesterday

智通财经APP获悉,据媒体报道,韩国人工智能初创公司Upstage正在PC与数据中心高性能芯片领军者AMD(AMD.US)洽谈采购其最新的1万枚AI加速器,此举是其将更大规模AI算力基础设施引入韩国市场所做努力的重要组成部分。

这家韩国AI初创公司购买足足1万枚AMD AI芯片,加之此前不久AMD与天弘科技(CLS.US)、慧与科技(HPE.US)等科技领军者达成重磅合作,共同合作加速推进AMD的Helios机架级AI算力基础设施产能爬坡,足以说明AMD的AI算力方案正获得更积极市场认可,有望在规模高达万亿美元的AI核心算力集群领域不断蚕食“AI芯片超级霸主”英伟达(NVDA.US)高达90%份额。

Upstage首席执行官Sung Kim在接受媒体采访时表示,上周他在首尔会见这家美国芯片巨头首席执行官苏姿丰(Lisa Su)时,讨论了采购AMD MI355 AI加速器算力产品一事。Kim在周一接受媒体采访时表示:“我们在韩国市场拥有很多英伟达芯片,但我们希望实现算力供给多元化,转向包括AMD在内的其他AI芯片供给力量。”

据了解,Upstage是四支参赛队伍之一,它们正在参与一场由韩国政府支持的超级AI竞赛,以选出韩国最优秀的国家级AI基础大模型。该赛事被称为“AI鱿鱼游戏”,借用了奈飞韩国团队所打造的热门生存题材剧集的名字,是韩国力争成为全球最顶级AI强国雄心的重要部分。

韩国科学与信息通信技术部监督下的专业评审团,将每六个月对这些团队的AI基础大模型进行一次评估和淘汰。韩国计划在明年年初之前选出两支进入决赛阶段的队伍。获胜者将获得更多英伟达AI GPU算力基础设施。

Kim表示,Upstage目前正为今年夏季即将到来的新一轮重要比赛准备一款拥有约2000亿参数的超级大语言模型。 他补充称,这家韩国AI初创公司的优势在于,通过将规模化效应与高效率处理模式相结合,以相对更低的成本打造高性能AI大模型——这种方法旨在对抗来自中国与美国的那些聚焦于高性价比的AI大模型竞争对手们。

Upstage是韩国头部的聚焦于AI大模型与企业级AI软件解决方案的AI初创公司。它目前在业内最突出的地位有两个:一是它是韩国政府支持的“主权AI基础模型”竞赛的四支参赛队之一;二是该AI初创公司自己披露,截至2024年其累计融资已超过1亿美元,并称自己是韩国历史上融资最多的AI大模型公司。该AI初创公司不只做通用级别AI大模型,同时还积极押注于企业级Document AI与LLM+主权AI出海。官方资料显示,这家AI初创公司将金融、保险、医疗、高端制造等细分行业作为重点的“AI+”场景。

Kim还表示,他正在考虑将越南和阿联酋等亚洲国家作为重大的潜在目标市场,提供可在其本国境内部署的主权级别AI训练/推理系统。

AMD踏向机架级AI基建纪元! 竭尽全力扩大Helios算力集群产能

Upstage正与AMD洽谈采购1万枚 MI355,加上其CEO明确表示韩国已有大量英伟达芯片、但希望“多元化”策略部署到AMD,这说明AMD已开始从“可选AI GPU替代品”变成部分客户真实考虑的大规模AI算力基础设施部署选项。

上周有媒体报道称,AMD重磅宣布将与天弘科技进行深度合作,将对标英伟达NVL72机架级AI平台的AMD全新的Helios机架级AI算力基础设施平台推向全球AI数据中心市场。这两条最新消息叠加在一起,足以说明AMD的AI算力集群方案正在获得更积极的市场认可。更重要的是,Helios 不是单卡故事,而是机架级故事:AMD已把竞争从单颗GPU拉升到72卡机架、网络互连、CPU+GPU+NIC 一体化的平台层面,并已联合天弘科技来加速推进量产落地。

AMD与Celestica携手加速将Helios机架级AI平台推向市场之际,正值AMD与多家科技领军者们联手对抗英伟达所主导的垂直一体化AI算力基础设施解决方案。此前AMD宣布携手慧与科技、博通,旨在为高性能计算集群以及大型AI数据中心大规模供给开放式且机架级(rack-scale)人工智能算力基础设施,并力争加速推动全球“主权AI”(Sovereign AI)研究进展。

Helios 将于2026年晚些时候面向客户提供,Facebook母公司Meta已与AMD签下多代且多年的深度合作协议,计划部署最高6吉瓦的AMD Instinct GPU算力集群,首个吉瓦级部署预计2026年下半年开始;OpenAI 也已参与AMD MI450的设计优化。再叠加韩国Upstage 这种“主权 AI/本地大规模算力”的强劲需求,我们能看到的不是单一AI算力订单,而是一个趋势:越来越多客户不愿把全部 AI 基础设施押注在单一供应商上,AMD正好承接这种“第二核心替代来源+开放标准+ 降低单一锁定”的AI算力需求。

“山丘之王”AMD股价即将迈向新一轮牛市曲线?

毋庸置疑的是,这些最新的积极催化剂无疑对于AMD股价前景而言构成强劲的短期到中期牛市驱动力。AMD已把自己从AI芯片市场的一家追赶者,推进成AI训练/推理系统级基础设施竞争者;该公司自己也在2025年分析师日上给出很激进的目标,包括未来五年数据中心芯片年营收规模达到1000亿美元、数据中心AI算力相关的营收年复合增速超过80%。

ADM CEO苏姿丰在分析师日还预计,包括AI中央处理器、AI加速器以及高性能网络产品在内,预计到2030年AI数据中心的总市场规模(TAM)将突破1万亿美元,届时将远超2025年的约2000亿美元,意味着复合年增长率(CAGR)超过40%。对于整体利润,苏姿丰预计在三到五年内,公司每股收益(EPS)将增至20美元。

AMD被华尔街金融巨头花旗的分析师们视为“山丘之王”(king of the hill),给出了高达260美元的12个月内目标股价。TIPRANKS汇编的分析师目标价显示,华尔街平均目标价高达惊人的285美元,意味着未来12个月潜在上行空间高达42%。截至上周五美股收盘,AMD股价收于201.330美元。

英伟达CEO黄仁勋在北京时间3月17日凌晨的GTC大会上展现出英伟达在AI算力基础设施领域的“前所未有AI算力创收超级宏图”,他告知全球投资者们,在Blackwell架构GPU算力强劲需求以及即将量产的Vera Rubin架构AI算力体系更加炸裂式强劲需求推动之下,其在人工智能芯片领域的未来营收规模到2027年可能至少达到1万亿美元,远远高于上一次GTC大会抛出的到2026年实现5000亿美元AI算力基础设施蓝图。

当模型规模、推理链路与多模态/代理式Agentic AI工作负载推动算力消耗呈指数型外扩时,科技巨头们的资本开支主线更倾向于向AI算力基础设施集中,全球投资者们更是将围绕英伟达、谷歌TPU集群与AMD的新品迭代与AI算力集群交付预期的“AI牛市叙事”,继续锚定为全球股市中最具确定性的景气投资叙事之一,同时也意味着电力、液冷散热系统、光互连供应链等与AI训练/推理密切相关的投资主题将跟随英伟达、AMD以及博通台积电美光等AI算力领军者们在中东地缘政治局势面临不确定性之际,仍继续位列股票市场最火热投资阵营。

在华尔街巨头摩根士丹利、花旗、Loop Capital以及Wedbush看来,以AI算力硬件为核心的全球人工智能基础设施投资浪潮远远未完结,现在仅仅处于开端,在前所未有的“AI推理端算力需求风暴”推动之下,持续至2030年的这一轮全球整体AI基础设施投资浪潮规模有望高达3万亿至4万亿美元。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10