TrendForce:预计2025年八大CSP的总资本支出达4200亿美元 同比增长61%

智通财经
Oct 13, 2025

智通财经APP获悉,根据TrendForce集邦咨询最新调查,随着AI Server需求快速扩张,全球大型云端服务业者(CSP)正扩大采购英伟达(NVDA.US)GPU整柜式解决方案、扩建数据中心等基础建设,并加速自研AI ASIC,预估将带动2025年Google(GOOG.US)、AWS(亚马逊云科技)、Meta(META.US)、微软(MSFT.US)、甲骨文(ORCL.US)和腾讯(00700)、阿里巴巴(09988)、百度(09888)等八大CSP的合计资本支出突破4,200亿美元,约为2023年与2024年资本支出相加的水平,年增幅更高达61%。

TrendForce集邦咨询表示,2026年在GB/VR等AI机柜方案持续放量下,八大CSP的总资本支出有望再创新高,年增达24%,来到5,200亿美元以上。除此之外,支出结构已从能直接创造收益的设备,转向Server、GPU等资产,意味着巩固中长期竞争力与市占率优先于改善短期获利。

2025年GB200/GB300 Rack为CSP重点布局的整柜式AI方案,需求量成长将优于预期。客户除主要来自北美前四大CSP和Oracle外,Tesla/xAI、Coreweave和Nebius等的需求亦有提升,以执行云端AI租赁服务或生成式AI。2026年CSP将扩大布局GB300 Rack整柜式方案,并于下半年起逐步转至NVIDIA Rubin VR200 Rack新方案。

CSP自研芯片出货量有望逐年攀升

北美四大CSP持续深化AI ASIC布局,以强化在生成式AI与大型语言模型运算上的自主性与成本掌控能力。Google与Broadcom(博通)合作TPU v7p(Ironwood),锁定训练应用,预计于2026年逐步放量,将接替TPU v6e (Trillium)的核心AI加速平台。TrendForce集邦咨询预估Google TPU出货量将持续领先,2026年更有望实现逾40%的年增长。

AWS主力部署Trainium v2,将于2025年底推出液冷版本机柜,而由Alchip、Marvell(美满电子)参与设计的Trainium v3,首款规格预计于2026年第一季量产。TrendForce集邦咨询估计2025年AWS自研ASIC出货量将大幅成长一倍以上,年度增速为四大业者之最,2026年的年增幅度可望逼近20%。

Meta则加强与Broadcom合作,预计于2025年第四季量产MTIA v2,提升推理效能与降低延迟。TrendForce集邦咨询预估2025年MTIA出货主要部署于Meta内部AI平台与推荐系统,待2026年采用HBM的MTIA v3推出,整体出货规模将呈双倍以上成长。

Microsoft则规划由GUC协助量产Maia v2,预计于2026年上半启动。此外,Maia v3因设计调整延后量产时程,预计短期内Microsoft自研芯片出货量相当有限,进度较落后竞争对手。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10