英伟达GTC前瞻:聚焦Rubin落地、Feynman前瞻与基础设施重构

格隆汇
Yesterday

事件:英伟达GTC将31619日在加州圣何塞举办,会议内容和体验将涵盖代理式AIAI工厂、面向科学的AICUDA、高性能推理、开放模型、物理AI、量子计算等诸多领域。

Rubin平台的量产兑现与系统化落。Rubin已不再只是单颗GPU产品,而是由CPUGPU、互联、网络和系统组件共同构成的集成式AI超算平台。英伟达正在把AI基础设施的交付单位从板卡提升到整柜系统。随着Vera Rubin平台在CES 2026上正式确认进入量产阶段,本次GTC很可能揭晓该架构的强化版——Rubin Ultra。一个Rubin Ultra机柜将集成144GPU,构建起高达1.5PB/sScale-up网络,单颗芯片双向互联带宽达到10.8TB/s。为了实现如此高密度的互联,Rubin或将采用双层网络拓扑结构,并在机柜内部实现“光进铜退”。

Feynman架构的前瞻披露预计将构成大会最具战略意义看点。Feynman可能成为首批采用台积电A16工艺的芯片,首次集成GroqLPU硬件栈,Feynman的生产预计在2028年启动,客户出货可能落在20292030年。Feynman可能引入以SRAM为核心的广泛集成或3D堆叠技术,单芯片功耗预计将突破5000WFeynman本次主要以路线图或架构预告的方式出现,其价值不一定在短期商业交付,而在于向市场说明英伟达如何理解后Rubin时代的AI计算需求。同时,英伟达可能会展示一款整合了Groq“语言处理单元”(LPU)技术的全新推理芯片,这标志着英伟达正积极布局推理计算领域,旨在满足市场对高效能、低成本计算方案的需求。

光互联、供电与液冷共同驱动的数据中心基础设施重构。在互联层面,CPO与硅光正成为超大规模AI系统的重要方向,未来数据中心内部将逐步从传统铜互联走向更高带宽密度、更低损耗的光连接体系。在供电层面,800V HVDC、高集成模块化供电和垂直供电等方案,反映出未来限制AI系统扩容的关键因素已不仅是芯片制造能力,更是电力能否高效稳定地送达每一个算力节点。在散热层面,风冷正在失去对超高功耗算力平台的适应性,液冷将越来越从可选方案转向标准配置,并带动冷板、热界面材料和机柜级液冷系统同步升级。我们认为,2026GTC最值得关注的并不是某一颗芯片的参数刷新,而是英伟达是否会通过Rubin的系统化落地、Feynman的路线图释放,以及光互联、供电和液冷一体化升级,正式把行业从“购买GPU”推进到“部署AI工厂”的新阶段。建议关注:AI芯片、算力、存储。

风险提示:AI发展不及预期;技术迭代及行业应用不及预期;行业竞争加剧。

注:本文来自国泰海通证券发布的《英伟达GTC前瞻:聚焦Rubin落地、Feynman前瞻与基础设施重构》,报告分析师:杨林、杨蒙、朱瑶

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10