今天,新变化!

市场资讯
Sep 10, 2025

(来源:研讯社)

今天,海外算力产业链有两个新变化。

第一,美股AI云基础设施公司——甲骨文发布业绩,全面超预期,美股盘前大涨29%。

甲骨文业绩超预期体现在三个方面:

1. 当季云业务收入超预期,总营收为72亿美元,同比增长28%;其中云基础设施(IaaS)营收33亿美元,同比增长55%。预计本财年云基础设施业务将增长77%,达到180亿美元,云业务收入高速增长。

2. 未来指引大超预期,在今年云业务营收预期180亿美元的背景下,预期未来四年云业务相关的营收将达到180/320/730/1140/1440亿,4年8倍,并且只此一家就接近今年全球GPUIaaS市场规模。

3. 在手订单超预期,得益于与OpenAI巨额交易,公司剩余履约订单大幅增长359%,达4550亿美元。

甲骨文再次给海外算力“放了卫星”,当然,这是大概率能实现的“卫星”,因为之前谷歌微软都已经相继上调了支出预期,英伟达也说过算力资本支出未来5年5倍的预期。

总体来说,甲骨文的业绩再次印证了海外算力链的景气度,甚至又把预期往上提升了,尤其是甲骨文算力产业链。

第二,英伟达在AI基础建设峰会(AI Infra Summit)宣布推出NVIDIA Rubin CPX,这是一款专为海量上下文处理而打造的全新GPU,主要用于推理场景下的上下文处理。

搭载CPX的Rubin机架(NVL144 CPX)比当前旗舰GB300 NVL72 上下文处理性能提升3-6.5倍,AI算力达8 exaflops(7.5倍提升)。CPX可以理解为一个为“让AI模型‘阅读’并‘理解’极长文本、代码等数据时,速度更快、成本更低”而生的超级专用引擎。

本质上,英伟达CPX虽然不是ASIC,但确实是有该功能倾向的一种专用GPU芯片,可以理解为英伟达在GPU和ASIC之间做了一个中间体,这也体现英伟达思路的一种转变,面对谷歌TPU等ASIC的竞争,英伟达也开始推出推理专用芯片,从“训练霸主”向“训练+推理双霸主”扩张,开始针对细分场景(如上下文处理、推荐系统等)推出专用解决方案,构建更深的护城河

当然,英伟达这一动作也会进一步推动竞争对手,如AMD英特尔、以及各大云厂商的自研芯片团队,加速在推理和专用芯片领域的布局,整个行业将从“拼通用算力”逐渐转向“拼场景化最优算力”。

专用芯片对各环节有进一步影响。比如考虑到CPX和GPU之前需要高速带宽互联,PCB的价值量会进一步提升,对覆铜板、电子布等要求会进一步提升,并且由于机柜内小背板阻断风道,CPX组件必须采用全液冷设计。

专用推理芯片是正在兴起的一种趋势,这个趋势会带来产业链各环节的新变化。

海量资讯、精准解读,尽在新浪财经APP

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10