Meta豪掷210亿美元,携手CoreWeave抢跑英伟达Rubin时代

智通财经网
Apr 09

周四消息,Meta Platforms, Inc. 向“英伟达亲儿子” CoreWeave, Inc. 追加210亿美元投资,此举是在两家公司9月达成的142亿美元云算力合作基础之上的新签署协议。

CoreWeave将在2032年前为其提供算力,从而加深与这家正试图在最前沿AI大模型竞赛中迎头赶上Anthropic、OpenAI等AI领军者们的社交媒体巨头之间的业务关系。

对英伟达最新推出的Vera Rubin 旗舰AI算力基础设施平台而言,Meta追加算力支出此举可谓是将Vera Rubin从技术路线图推进到有真实客户、有长期订单、有商业化落点的系统级AI算力基础设施。对于近年来堪称以“一己之力”撑起全球股票市场牛市轨迹的“AI牛市叙事”而言,可谓大幅强化了这一宏大叙事逻辑,竭力证明了当AI大模型参数规模、推理链路与多模态/代理式Agentic AI(即AI智能体)工作负载推动算力消耗呈指数型外扩时,科技巨头们的资本开支主线仍然最倾向于AI算力基础设施。

根据CoreWeave周四发布的一份声明,按照新条款,Facebook母公司Meta承诺向算力租赁巨头CoreWeave追加210亿美元以购置AI云算力容量,CoreWeave将通过在2032年12月之前利用多个大型AI数据中心向Meta提供庞大的AI云计算基础设施容量,这些数据中心其中一部分由AI芯片超级巨头英伟达最新推出的将Vera Rubin AI算力基础设施平台提供支持。

此外,两家公司此前达成的协议原本持续至2031年12月,并附带一个可在增加额外容量的情况下延长至2032年的选择权。也就是说最新达成的这个约210亿美元初始AI算力基础设施承诺,包含两部分:一部分是新订单对应的新AI云端算力容量,另一部分是执行此前协议中的算力扩容选项。

“英伟达亲儿子”CoreWeave再获超大规模算力订单

有着“英伟达亲儿子”称号的CoreWeave是新兴崛起的“新型云计算服务商”群体中的一员,这类企业通过出租以英伟达AI GPU核心的领先云端AI算力基础设施的使用权限来开展业务,其核心竞争对手包括Nebius Group NV以及Nscale,都属于所谓“新云”(neoclouds)云端AI算力租赁类型的云计算阵营。CoreWeave一直是大型科技公司们竞相构建最先进AI大模型所带来的主要AI算力产业链受益者之一,这场竞赛已推动算力需求激增。

毋庸置疑的是,Meta已成为AI算力基础设施领域支出最高的科技公司之一。该科技巨头的首席执行官马克·扎克伯格计划在未来几年投入数千亿美元,用于建设、训练和运行AI大模型所需的无比庞大能源、算力基础设施以及全球最顶级人才。

CoreWeave还另行表示,公司计划发行2032年到期的30亿美元可转换优先票据,以及2031年到期的12.5亿美元优先票据,用于一般企业用途,其中包括偿还未偿债务。有媒体援引知情人士透露的消息报道称,今年2月,该公司正寻求从包括摩根士丹利和三菱日联金融集团在内的多家大型投资银行筹集约85亿美元资金,以帮助为其面向Meta扩建云计算容量提供融资。

作为数据中心领域英伟达图形处理器(即GPU)的最早期云端租赁采用者,CoreWeave凭借抢跑数据中心AI算力资源需求浪潮,喜获英伟达的风投部门青睐,甚至能够数次优先获得需求极度旺盛的英伟达H100/H200以及Blackwell系列AI GPU,曾迫使微软等云服务巨头向CoreWeave租赁云端AI算力资源,喜提“英伟达亲儿子”这一称号。

当前全球AI算力资源需求,无疑持续呈现出炸裂式扩张之势,这也是为何Fluidstack 、Nebius Group NV以及Nscale和CoreWeave这类云端AI算力租赁领军者今年以来估值持续扩张。与AI训练/推理密切相关的AI算力资源需求已把底层算力基础设施集群能够满足的容量推到极限,哪怕近期持续扩建的大型AI数据中心也无法满足全球范围的无比强劲算力需求。

把时间线拉长到近一年看,CoreWeave公开披露的大型新云订单几乎都来自最顶级的生成式AI买家们。2025年3月拿下OpenAI一份最高119亿美元、为期五年的训练与推理算力合同;5月又从 OpenAI 获得最高40亿美元扩单;9月再获 OpenAI 最高65亿美元追加协议,使双方总合同价值升至约224亿美元;同月再与Meta签下142亿美元长期算力协议;而这次又从Meta再拿下一份约210亿美元的新协议/扩展协议。

“AI牛市叙事”势必再度掀起巨浪

对近年来支撑全球股市牛市轮廓的“AI牛市叙事”而言,这笔交易最重要的地方在于强化了“天量级别AI推理工作负载所驱动的长期签约云AI算力扩容”,凸显出AI算力需求并没有像“AI泡沫论调”所质疑的那样见顶,反而正从训练高峰全面过渡到上下文推理、Agentic AI以及生产级部署的长期算力扩张期。 “AI牛市叙事”在地缘政治局势显著降温的背景下,势必再度掀起巨浪。

此外,Facebook母公司Meta通过CoreWeave提前锁定Rubin架构初期部署,等于是在替市场确认一大重要趋势:下一轮AI capex不只是继续购置Blackwell架构,而是开始为英伟达新推出的Rubin这一代“机柜级/工厂级”AI算力基础设施系统腾出巨额预算。 这对英伟达本身,以及交换芯片、高性能网络、液冷、OCS交换机与光互连、光模块/硅光电路、HBM/存储、2.5D/3D先进封装、数据中心电力链条等整条AI算力产业链而言,都是非常强劲的需求锚。

英伟达CEO黄仁勋在3月GTC大会上展现出英伟达在AI算力基础设施领域的“前所未有AI算力创收超级宏图”,他告知全球投资者们,在Blackwell架构GPU算力强劲需求以及即将量产的Vera Rubin架构AI算力体系更加炸裂式强劲需求推动之下,其在人工智能芯片领域的未来营收规模到2027年(2025-2027年)可能至少达到1万亿美元,远远高于上一次GTC大会抛出的到2026年实现5000亿美元AI算力基础设施蓝图。

当模型规模、推理链路与多模态/代理式Agentic AI工作负载推动算力资源消耗呈指数型外扩时,科技巨头们的资本开支主线愈发倾向于向AI算力需求井喷之下的AI算力基础设施集中,全球投资者们更是将围绕英伟达、谷歌TPU集群与AMD的新品迭代与AI算力集群交付预期的“AI牛市叙事”,继续锚定为全球股市中最具确定性的景气投资叙事之一;同时也意味着电力、液冷散热系统、光互连供应链等与AI训练/推理密切相关的投资主题将跟随英伟达、AMD以及博通、台积电、美光等AI算力领军者们在中东地缘政治局势面临不确定性之际,仍继续位列股票市场最火热投资阵营。

根据机构汇编的最新分析师预期,亚马逊连同谷歌母公司Alphabet、Facebook母公司Meta Platforms Inc.,以及甲骨文公司和微软,预计将在2026年的累计人工智能相关资本支出达到大约6500亿美元,还有一些分析师认为整体支出可能超过7000亿美元——意味着同比AI资本开支增幅可能超过70%。值得注意的是,上述的这五大美国超级科技巨头,预计将在2023年至2026年间,为打造无比庞大的AI算力基础设施累计投入约1.5万亿美元;相比之下,这些科技巨头们在2022年之前的整个历史统计期间累计投资约6000亿美元。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10