智通財經APP獲悉,國聯民生證券發布研報稱,英偉達(NVDA.US)本次發布的全新方案是在架構層面借鑑Intel SCM的分層理念,BF4+DRAM+內存池化是英偉達通過軟件定義的SCM,而現有的潛在方案都有各種成本、大規模訓練穩定性的問題。從邏輯上看AI 正加速一切存儲的重要性。此前市場並未對AI 需求下的DRAM和SSD增長邏輯形成一致的預期,但在本次發布會後該行認為AI正逐步重塑存儲堆棧並量化SSD的需求和空間。
國聯民生證券主要觀點如下:
黃仁勳CES2026 最新演講發布新一代AI 芯片架構NVIDIA Vera Rubin
面對階段AI 計算需求的指數級增長,英偉達正式發布新一代AI 芯片架構:NVIDIA Vera Rubin。Vera Rubin 平台不是單個芯片的迭代,而是從晶體管到系統架構的全棧重新思考。黃仁勳展示了六顆全新的芯片,包括Vera CPU、RubinGPU、NVLink 6 Switch、ConnectX-9 智能網卡、BlueField-4 DPU、Spectrum-X 102.4T CPO。英偉達認為在摩爾定律放緩的時代,單純依靠製程進步帶來的性能提升是有限的。而真正的突破來自於從系統層面重新設計系統協同工作。在傳統的計算架構中,數據傳輸往往成為瓶頸。而在Vera Rubin 中通過重新設計芯片間的高速互連,整個系統的通信帶寬達到了「全球互聯網總帶寬的兩倍」。
英偉達確認AI 正重塑存儲堆棧
過去KV Cache 的體積隨着大模型浪潮下不斷增長的上下文記憶、更長的對話、存儲更多的臨時知識,傳統的 GPU 高帶寬內存已無法容納。因此Vera Rubin 的解決方案是四顆 BlueField-4 DPU 直接管理一個高達 150TB 的共享、持久、高速的上下文內存池。而內存池通過超低延遲的機架內網絡與所有 GPU 直連,可以動態地為每個 GPU 分配高達 16TB 的專用且高速的上下文空間。
英偉達正成為AI 時代全棧計算基礎設施的定義者和提供者
目前通過Vera Rubin訓練一個 10 萬億參數規模的下一代前沿大模型, 所需集群規模僅為使用 Blackwell 系統的四分之一,極大加速了從研究到產品的迭代周期。在同等功耗和空間下, 一個 Vera Rubin 數據中心的 AI 計算吞吐量預計將達到基於 Hopper 架構數據中心的約 100 倍,大規模 AI 服務的 token 生成成本,預計將降至當前水平的約十分之一。
AI 時代下,存儲的重要性正提升
若按照每顆GPU 增加16TB NAND,每個機櫃增加1152TB NAND,若按照14 萬機櫃計算,NAND 需求增加161 EB,大約佔2025 年全球NAND 總需求的16%和企業級SSD 的54%,或持續影響NAND供需平衡。
風險提示:AI 發展不及預期;AI 商業化邏輯不及預期;存儲需求不及預期。