TrendForce集邦咨询:CSP自研ASIC规模升级 英伟达(NVDA.US)多元产品线分攻AI训练与推理需求

智通财经
Mar 18

智通财经APP获悉,根据TrendForce集邦咨询最新AI Server研究,在大型云端服务供应商(CSP)加大自研芯片力道的情况下,英伟达(NVDA.US)在GTC 2026大会改为着重各领域的AI推理应用落地,有别于以往专注云端AI训练市场。通过推动GPU、CPU以及LPU等多元产品轴线分攻AI训练、AI推理需求,并借由Rack整合方案带动供应链成长。

TrendForce集邦咨询表示,随着以谷歌(GOOGL.US)、亚马逊(AMZN.US)等CSP为首的自研芯片态势扩大,预估ASIC AI Server占整体AI Server的出货比例将从2026年的27.8%,上升至2030年的近40%。

为巩固在AI市场的领导地位,英伟达采取的其中一项策略为积极推动GB300、VR200等整合CPU、GPU的整柜式方案,强调可扩展至AI推理应用。本次在GTC发表的Vera Rubin被定义为高度垂直整合的完整系统,涵盖七款芯片和五款机柜。

观察Rubin供应链进度,预计2026年第二季存储器原厂可提供HBM4给Rubin GPU搭载使用,助力英伟达于第三季前后陆续出货Rubin芯片。至于英伟达 GB300、VR200 Rack系统出货进程,前者已于2025年第四季取代GB200成为主力,预估至2026年出货占比将达近80%,而VR200 Rack则约在2026年第三季度末可望逐步释放出货量能,后续发展仍需视ODM实际进度而定。

另外,AI从生成跨入代理模型时代,在生成Token的译码(Decode)阶段面临严重的延迟与存储器带宽瓶颈。为此,英伟达整合Groq团队技术,推出专为低延迟推理设计的Groq 3 LPU,单颗内建500MB SRAM、整机柜可达128GB。

然而,LPU本身的存储器容量无法容纳Vera Rubin等级的庞大参数与KV Cache。英伟达因此于本次GTC提出“解耦合推理(Disaggregated Inference)”架构,通过名为Dynamo的AI工厂作业系统,将推理流水线一分为二:处理代理型AI时,需进行大量数学运算并储存庞大KV Cache的Pre-fill、Attention运算阶段,交由具备极高吞吐量与巨量存储器的Vera Rubin执行。而受限于带宽且对延迟极度敏感的译码与Token生成阶段,则直接卸载至扩充了巨量存储器的LPU机柜上。

在供应链进度上,第三代Groq LP30由Samsung(三星)代工,已进入全面量产阶段,预计于2026年下半年正式出货,未来更规划在下一代Feynman架构中推出效能更高的LP40芯片。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10