事件:英伟达GTC将于3月16–19日在加州圣何塞举办,会议内容和体验将涵盖代理式AI、AI工厂、面向科学的AI、CUDA、高性能推理、开放模型、物理AI、量子计算等诸多领域。
Rubin平台的量产兑现与系统化落。Rubin已不再只是单颗GPU产品,而是由CPU、GPU、互联、网络和系统组件共同构成的集成式AI超算平台。英伟达正在把AI基础设施的交付单位从板卡提升到整柜系统。随着Vera Rubin平台在CES 2026上正式确认进入量产阶段,本次GTC很可能揭晓该架构的强化版——Rubin Ultra。一个Rubin Ultra机柜将集成144颗GPU,构建起高达1.5PB/s的Scale-up网络,单颗芯片双向互联带宽达到10.8TB/s。为了实现如此高密度的互联,Rubin或将采用双层网络拓扑结构,并在机柜内部实现“光进铜退”。
Feynman架构的前瞻披露预计将构成大会最具战略意义看点。Feynman可能成为首批采用台积电A16工艺的芯片,首次集成Groq的LPU硬件栈,Feynman的生产预计在2028年启动,客户出货可能落在2029至2030年。Feynman可能引入以SRAM为核心的广泛集成或3D堆叠技术,单芯片功耗预计将突破5000W。Feynman本次主要以路线图或架构预告的方式出现,其价值不一定在短期商业交付,而在于向市场说明英伟达如何理解后Rubin时代的AI计算需求。同时,英伟达可能会展示一款整合了Groq“语言处理单元”(LPU)技术的全新推理芯片,这标志着英伟达正积极布局推理计算领域,旨在满足市场对高效能、低成本计算方案的需求。
光互联、供电与液冷共同驱动的数据中心基础设施重构。在互联层面,CPO与硅光正成为超大规模AI系统的重要方向,未来数据中心内部将逐步从传统铜互联走向更高带宽密度、更低损耗的光连接体系。在供电层面,800V HVDC、高集成模块化供电和垂直供电等方案,反映出未来限制AI系统扩容的关键因素已不仅是芯片制造能力,更是电力能否高效稳定地送达每一个算力节点。在散热层面,风冷正在失去对超高功耗算力平台的适应性,液冷将越来越从可选方案转向标准配置,并带动冷板、热界面材料和机柜级液冷系统同步升级。我们认为,2026年GTC最值得关注的并不是某一颗芯片的参数刷新,而是英伟达是否会通过Rubin的系统化落地、Feynman的路线图释放,以及光互联、供电和液冷一体化升级,正式把行业从“购买GPU”推进到“部署AI工厂”的新阶段。建议关注:AI芯片、算力、存储。
风险提示:AI发展不及预期;技术迭代及行业应用不及预期;行业竞争加剧。
注:本文来自国泰海通证券发布的《英伟达GTC前瞻:聚焦Rubin落地、Feynman前瞻与基础设施重构》,报告分析师:杨林、杨蒙、朱瑶