广发证券:英伟达(NVDA.US)新平台加强Agent应用竞争力 AI推理驱动存储周期持续向上

智通财经
5 hours ago

智通财经APP获悉,广发证券发布研报称,英伟达(NVDA.US)在GTC展示Vera RubinPOD,此次重点加强针对Agent应用在集群化算力和推理算力产品线的竞争力。AI的进击时刻,模型创新与CAPEX筑基,AI产业链协同发展;AI推理驱动存储周期持续向上,扩产与升级同发力。建议关注产业链核心受益标的。

广发证券主要观点如下:

英伟达发布Vera Rubin POD平台

根据英伟达官网,2026年3月16日,英伟达在GTC展示Vera RubinPOD,包括5个专为Agentic AI工作负载打造的全新机架级系统。由于Agentic工作负载对高吞吐量、极低延迟的推理、密集的CPU沙箱和庞大的上下文内存存储提出更高要求,英伟达此次重点加强针对Agent应用在集群化算力和推理算力产品线的竞争力。Vera Rubin POD主要分为两种机架:(1)MGXNVL机架:即VeraRubin NVL72,机架内部通过NVLink互连,承担核心GPU计算任务;(2)MGXETL机架:包括Groq3 LPX机架、Vera CPU机架、BlueField-4 STX存储机架和Spectrum-6 SPX网络机架,这些机架均通过SpectrumX以太网或Groq3 LPU的芯片直接互连进行协同。按照官网示意图测算,一个Vera Rubin 1152 SuperPOD由16个Vera Rubin NVL72机架、2个Vera CPU机架、10个Groq 3 LPX机架、2个BlueField-4 STX存储机架以及10个Spectrum-6 SPX网络机架组成,体现其围绕Agentic AI所构建的异构协同系统架构。

Groq3 LPX机架用于加速decoding。

Groq3 LPX机架集成256个LPU处理器,配备128 GB片上SRAM和640TB/s的带宽在Vera Rubin NVL72与LPX的组合架构中,GPU主要负责Prefill以及Decode阶段中的Attention计算,LPU则负责加速Decode阶段的FFN计算,对每层每个输出token的解码过程进行加速,并通过定制化Spectrum-X互连与Vera Rubin机架协同。根据英伟达官网披露,在每用户400 TPS的条件下,Vera Rubin NVL72与LPX的组合相比NVIDIAGB200 NVL72,每兆瓦可实现高达35倍的TPS提升,在提升系统整体产出的同时,也更适配低时延、强交互的Agent应用场景。

Vera CPU机架承担RL/Agent沙箱环境支撑

Vera CPU机架集成256个Vera CPU,采用高密度液冷设计,单个机架可支持超过22500个并发强化学习(RL)或代理沙箱环境,用于对Vera Rubin NVL72与LPX输出结果进行测试、执行与验证。

风险提示

AI产业发展以及需求不及预期;AI服务器出货量不及预期,国产厂商技术和产品进展不及预期。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10