英伟达掘墓人:两大巨头,最新发声

半导体行业观察
Dec 13, 2025

2024年底到2025年初,定制化AI芯片市场经历了一场前所未有的爆发。谷歌TPU成为这场变革的标志性产品——不仅支撑着Gemini模型的训练,还开始向苹果、Cohere等企业开放云服务。这一现象引发了整个行业对自研芯片趋势的重新思考。

从市场规模来看,定制化 XPU 与相关基础设施的商业化进程同样提速。行业机构和分析师多次预测,到 2030 年,规模化扩展交换机市场有望接近 60 亿美元,与之配套的光互联器件市场更将突破 100 亿美元级别。这一庞大的市场规模预示着 AI 计算架构正从单纯关注算力峰值,转向关注“规模化扩展能力”和“算力互联效率”这两个新的核心维度。

在这个背景下,云服务商的资本开支预期从年初的18%增长率飙升至30%以上。AI基础设施建设已从单机柜演进到多机柜规模化扩展架构,数百颗XPU之间需要实现高带宽、超低延迟的任意互联。这不仅催生了定制化加速器的需求爆发,也推动了高速互联、光子技术、先进封装等整个产业链的技术跃迁。

我们可以从博通和Marvell这两家公司的最新财报中,一瞥这场技术与市场的变迁。

亮眼财报

先来看看博通和Marvell这两大巨头在第三季度交出的成绩单。

博通的2025财年创下的成绩令人瞩目:全年营收640亿美元,同比增长24%;AI业务营收200亿美元,同比激增65%;半导体业务营收创下370亿美元历史新高。第四季度表现更为强劲,总营收180亿美元,同比增长28%,其中AI芯片业务达65亿美元,11个季度实现超10倍增长。

更令市场关注的是博通披露的订单数据:公司当前AI相关在手订单总额已超730亿美元,占合并订单积压总量的近一半,这些订单将在未来18个月内完成交付。这其中,XPU及相关定制化芯片订单占比约70%,交换机、DSP、激光器等互联组件占比约30%。CEO陈福阳特别强调,这730亿美元仅是当前静态订单量,随着新订单持续涌入,实际交付金额将远超这一数字。

基础设施软件业务方面,威睿云基础架构平台(VMware Cloud Foundation)的市场渗透率持续提升,带动该板块营收同比增长26%,达270亿美元。展望2026财年第一季度,博通预计合并营收达191亿美元,同比增长28%;其中AI业务营收将同比翻倍至82亿美元。

Marvell 2026财年第三季度营收创下20.75亿美元历史新高,同比增长37%。数据中心业务营收15.2亿美元,同比增长38%,占总营收73%。更重要的是公司对未来的展望:预计2027财年数据中心业务营收同比增幅将超过25%,营收有望冲击100亿美元关口;2028财年数据中心业务增速将反弹至40%。

Marvell的增长动力呈现多元化特征:互联业务占数据中心营收约50%,定制化业务占比25%,其余为存储、交换机等业务。公司在第三季度完成10亿美元加速股票回购,并宣布收购Celestial AI——这家拥有颠覆性光子互联技术的创新企业。

最令市场振奋的是Marvell对长期前景的明确规划:从2023年到2028年,数据中心业务的复合增长率将达到50%。管理层详细拆解了增长路径——定制化业务将在2028财年实现翻倍增长,互联业务增速将持续超越云服务商资本开支增速,存储和交换机业务预计保持10%以上增长。

接下来,我们将逐一拆解这两家巨头财报中,最能决定未来AI芯片走向的关键技术线索。

XPU

大家最关心的,当然还是热度最高的XPU。陈福阳在会议中反复强调,客户选择自研XPU的根本原因在于“硬件层面的优化能实现远超软件内核调优的性能提升”。

以谷歌TPU为例,这款芯片在稀疏计算核心、模型训练、推理等场景中,通过硬件级优化实现了显著的性能优势。博通为客户定制的TPU及其他加速器产品,已经充分验证了这一点。但市场上出现了一个有趣的分化现象:谷歌TPU开始对外提供云计算服务,采用商业化模式;而博通的第四、第五家XPU客户则选择闭环自研路线,通过多年投入打造专属加速器以掌握技术主动权。

陈福阳指出,客户租用谷歌TPU是一种短期的、基于性价比的交易性决策,主要替代对象是通用GPU;而选择与博通合作开发定制化加速器,则是长期的战略性投入,需要数年的技术积累和研发周期,二者并不冲突。事实上,即便客户选择租用TPU满足短期算力需求,也不会放弃自主研发定制化加速器的长期战略——这是构建核心技术壁垒的关键。

博通披露的订单数据佐证了这一判断。公司在第三季度斩获第五家XPU客户,订单金额达10亿美元;上一季度获得的第四家客户追加订单110亿美元,首批订单就达100亿美元。这些订单的交付将于2026年底启动,产品形态是完整的XPU机柜系统,而非单纯的芯片。陈福阳解释,在超大规模企业的AI系统中,除了XPU等定制化加速器,还需要大量配套组件,因此公司选择以整机柜为单位交付,并对系统的运行稳定性进行全面认证。

值得关注的是,目前市场存在一个被夸大的假设:“客户全面自研芯片”。陈福阳对此给出了清晰的反驳:芯片技术迭代速度极快,而大语言模型企业的核心竞争力在于算法与应用场景,而非芯片研发。当这些企业需要与技术持续迭代的通用GPU厂商竞争时,必须权衡资源投入方向。因此,“客户全面自研芯片”在短期内不会成为主流。真正布局大语言模型的企业数量有限,这些企业才会选择定制化XPU路线。

Marvell在定制化业务的布局与博通相比略有差异。公司在6月举办的投资者活动上披露了18个XPU及XPO互联场景的设计订单,对应750亿美元的总市场机遇。自那时起,公司又斩获了一批新订单,这些订单的生命周期营收潜力占总市场机遇的10%以上。新增订单涵盖多个XPU互联场景、一款面向新兴超大规模云服务商的XPU产品,以及近期赢得的XPU内部电I/O芯粒设计订单。

高速互联

如果说XPU是AI系统的“大脑”,那么高速互联技术就是连接这些“大脑”的“神经网络”。博通和Marvell针对这一领域,也有着不尽相同的技术布局和路径。

行业分析师预测,到2030年,规模化扩展交换机的独立市场规模将接近60亿美元。在互联领域,与规模化扩展交换机配套的光互联器件市场规模同样可达60亿美元量级——由于光互联器件需同时对接XPU与交换机,整体市场规模实际将翻倍,突破100亿美元。这两大市场均为半导体企业带来了体量庞大且前景广阔的增量机遇。

博通着重在规模化扩展领域深度布局,其在人工智能网络业务上的数据令人印象深刻:需求增长更为强劲,客户正提前布局数据中心基础设施建设。公司的AI交换机订单积压金额已突破100亿美元,核心产品是Tomahawk 6交换机——这款全球首款且唯一支持102太比特/秒速率的产品,订单量持续刷新纪录。陈福阳解释,这款产品之所以热销,核心在于它是扩容最新一代GPU和XPU集群的关键设备。

除了Tomahawk 6交换机再横向扩展市场的成功外,公司还在开发面向规模化扩展场景的下一代产品。陈福阳强调,在规模化扩展网络中,互联技术与交换技术同等关键,是实现数百颗XPU紧密协同的核心。这一趋势正推动网络链路数量与系统总带宽呈爆发式增长,进而催生了跨机柜互联架构的需求。

而Marvell在数据中心交换机业务的增长势头持续向好,预计本财年营收将突破3亿美元。公司预计12.8T交换机产品需求将保持强劲且稳定——主流客户计划将其作为横向扩展网络的主力产品,持续部署数年。与此同时,公司已开始出货下一代51.2T交换机产品,预计明年将实现大规模量产。基于此,Marvell将下一财年数据中心交换机业务营收预期上调至突破5亿美元,增速超出上一季度的指引。

在规模化扩展交换机领域。Marvell正在加速下一代产品的研发进程,这类产品的复杂度堪比100T横向扩展交换机,具备超高端口密度,可支持多达576个端口。公司充分利用自研的高速低功耗SerDes技术,以及大掩膜尺寸芯片的研发经验,快速推进规模化扩展交换机的研发。目前,Marvell已与核心客户及合作伙伴展开深度合作,计划于2027财年下半年推出UALink 115T与57T解决方案的样品,并于2028财年实现量产。在推进UALink方案的同时,公司还与核心客户合作开发ESUN标准方案,通过覆盖双标准,完善规模化扩展交换机的产品布局。

值得说明的是,Marvell的优势则更多体现在光互联技术的全栈布局上。其强调自己拥有业界最全面的高速互联产品组合,PAM DSP产品进入800G量产的第五个年头,需求仍在持续攀升。公司的市场策略清晰明确:率先上市、率先量产,并通过及时推出优化方案巩固领先地位。这一策略在400G、800G时代屡获成功,如今在1.6T时代再次得到验证。

Marvell的财报指出,公司于2024年2月推出首款5纳米1.6T产品并送样,随后加速推出优化版本,并在一年后的2025年2月实现3纳米产品送样。凭借这一执行力,公司推动了1.6T可插拔光模块在全行业的量产落地。2026财年下半年,公司已开始出货1.6T产品,下一财年需求前景极为乐观。持续稳定的技术落地,使Marvell能够大幅领先竞争对手完成主流客户的产品认证。

更前瞻的布局是,尽管1.6T产品仍拥有漫长的生命周期,Marvell已在今年4月的光纤通信大会上展示了单通道400G技术,为下一代3.2T技术的行业转型奠定基础。本次展示基于3纳米工艺,而预计2028年量产时,为优化模块功耗,将采用2纳米工艺。除PAM产品组合外,公司还通过轻量级相干光解决方案支持更长距离的互联需求,以适配百万级GPU AI集群时代的园区级数据中心互联场景。

值得关注的是,作为DSP产品的补充,两家公司的高性能模拟TIA(跨阻放大器)与驱动芯片成为保持光电互联领域领导地位的核心基石。博通披露,公司的1.6T DSP、TIA及驱动芯片需求持续旺盛,光互联业务营收环比实现两位数增长。Marvell的1.6T TIA产品同样具备显著性能优势,市场需求广泛,为整个产业生态提供关键支撑。

光子互联

如果说高速互联是当前的战场,那么光子互联技术则代表着未来的方向。Marvell对Celestial AI的收购,将这一技术推向了市场关注的焦点。

Celestial AI拥有一款专为下一代规模化扩展互联打造的光子互联平台。这项技术的革命性在于,它打造的纯光互联方案功耗效率是铜基互联的两倍以上,同时具备远超铜缆的传输距离与带宽表现。更关键的是,Celestial AI光子互联技术的热稳定性是其核心竞争优势——该技术可在大功率XPU(功率达数千瓦)产生的严苛热环境下稳定运行,支持光子器件与高功率XPU、交换机进行3D封装垂直集成,实现光子链路与XPU的直接互联。

这与多数共封装光学(CPO)方案形成鲜明对比。传统方案中光子引擎需紧邻XPU部署,并通过芯片边缘实现互联;而Celestial AI的技术方案实现了更紧凑的集成设计,释放了芯片边缘的宝贵接口资源,这些资源可被重新用于大幅提升XPU封装内的高带宽内存(HBM)容量。突破芯片边缘I/O接口的限制,还能显著提升XPU与交换机系统的封装总带宽。

Celestial AI的首款产品是光子互联芯粒(PF Chiplet),该产品将驱动芯片、跨阻放大器、均衡器、串行/解串器、微控制器、调制器、光电二极管及光波导等所有必要的光电组件,集成于一个紧凑的封装内。这是业界首款面向规模化扩展场景的光互联解决方案,单颗芯粒即可提供高达16太比特/秒的带宽,是当前横向扩展应用中主流1.6T端口容量的10倍。

更令市场振奋的是,Celestial AI已赢得全球头部超大规模云服务商的重大设计订单,该客户计划在其下一代规模化扩展架构中部署Celestial AI的PF芯粒。这批PF芯粒将同时集成于该客户的定制化XPU与规模化扩展交换机,用于实现设备间互联。这有望成为业界首个规模化扩展互联场景下光互联技术的大规模商用案例。Marvell披露的8-K文件显示,公司向亚马逊授予了100万股股票的认购权证,用于采购光子互联产品,这是对现有权证协议的拓展。

Marvell预计Celestial AI将从2028财年下半年开始贡献可观营收。基准预测显示,Celestial AI的年化营收规模将在2028财年第四季度达到5亿美元,并于2029财年第四季度翻倍至10亿美元。交易交割后,Celestial AI的首席执行官、创始人及核心管理团队将加入Marvell担任领导职务,这些行业领军者在规模化扩展交换与光子互联领域深耕多年。

博通虽然没有进行类似的收购,但陈福阳在会议中明确表示,光子互联技术是解决数据中心互联带宽与功耗问题的终极方案之一,尤其适用于大规模集群的横向扩展与纵向扩容。公司已布局相关技术研发,产品覆盖400吉比特/秒、800吉比特/秒乃至1.6太比特/秒速率的光子互联交换机与互联方案,但短期内不会大规模部署。当前行业的主流方案仍是:机柜内部采用铜缆互联,集群间采用可插拔光模块互联。只有当这两种方案无法满足带宽与功耗需求时,光子互联技术才会迎来商业化拐点。

CXL技术

在众多技术创新中,CXL(Compute Express Link)协议的重要性往往被市场低估。这项技术正成为突破“内存墙”瓶颈的关键突破口。

Marvell在CXL领域的布局颇具前瞻性。数年前其便前瞻性地布局CXL技术研发,目前已在两家美国头部超大规模云服务商处赢得5个独特的应用场景订单,并与第三家头部云服务商展开深度合作。首款定制化CXL产品已于本财年第一季度开始出货,目前正进入量产阶段;第二款聚焦近内存计算的产品预计将于一年后量产;其余CXL设计订单则计划于2027年量产。

Marvell的CXL解决方案具备多项技术优势:同时支持DDR4与DDR5内存、更大内存容量、内存压缩技术,以及与头部内存厂商和CPU厂商的深度合作。尽管早期订单主要聚焦于CPU的功能卸载,但近期赢得的订单已拓展至XPU互联场景——XPU的部署规模远超CPU。对于即将量产的多款高容量CXL产品,Marvell正引领下一代内存架构的技术转型。

CXL技术的战略价值在于,它不仅解决了内存容量的瓶颈,更重要的是通过内存扩展与加速,有效突破了AI系统的"内存墙"限制。在大语言模型训练和推理过程中,内存带宽和容量往往成为制约性能的关键因素。CXL技术通过高速互联实现内存池化和扩展,能够显著提升系统整体性能。

马特·墨菲特别强调,XPU互联市场将保持高速发展态势,而公司解决方案的渗透率也超出了最初预期。仅就已斩获的智能网卡与CXL两大场景订单来看,预计到2029财年,相关营收将突破20亿美元,后续年度的营收预期将进一步大幅提升。这个数字充分说明了XPU互联市场的巨大潜力——当XPU的部署规模达到百万台级别时,相关互联器件的市场空间将远超纯粹的定制芯片市场。

整机柜销售

博通的整机柜销售模式成为财报会议上的另一个焦点话题。这种模式的兴起,反映了AI系统复杂度的提升和客户需求的变化。

陈福阳解释,在超大规模企业的AI系统中,除了XPU等定制化加速器,还需要大量配套组件。因此,公司选择以整机柜为单位交付,并对系统的运行稳定性进行全面认证,这与单纯销售芯片的模式存在本质区别。第四家客户的订单正是采用这种整机柜交付模式,核心组件均由博通提供。

这种商业模式的转变带来了深远影响。首先,它提升了单客户的营收规模。博通披露的数据显示,第四家客户的首批订单就达到100亿美元,追加订单110亿美元,这种订单规模在传统芯片销售模式下是难以想象的。其次,它增强了客户粘性。当客户采购的是完整系统而非单一芯片时,更换供应商的成本和风险都大幅增加,这为博通提供了更稳定的长期营收预期。

然而,整机柜销售模式也带来了新的挑战。柯尔斯滕·斯皮尔斯坦言,2026财年下半年,随着整机柜交付规模扩大,公司将承担更多非自研组件的采购成本,这会对毛利率产生下行压力。不过,管理层强调,毛利率绝对值会下降,但毛利总额将持续增长;同时,运营杠杆效应将带动营业利润总额增长。

这种取舍反映了博通的战略选择:通过牺牲部分毛利率,换取更大的市场份额和更稳定的客户关系。在AI芯片市场快速扩张的背景下,这种策略具有合理性。毕竟,对于一个年化营收规模即将突破200亿美元的业务而言,几个百分点的毛利率波动,远不如市场份额和增长速度重要。

分析师乔·穆尔在会议上提出了一个关键问题:如果2026财年下半年XPU机柜相关营收达到210亿美元(按全年420亿美元估算),这一营收规模能否持续?陈福阳的回答颇具深意:该业务的长期营收规模,本质上取决于客户未来对算力的需求强度。如果客户需要持续扩容算力,整机柜销售规模将进一步增长;反之则可能收缩。当前订单积压的结构,反映的是客户现阶段的算力建设规划,而公司的任务是满足客户的需求。

这个回答既实事求是,又留有余地。它承认了整机柜销售模式的营收规模与客户需求高度相关,但同时也暗示了博通对市场前景的信心——毕竟,公司敢于披露730亿美元的订单积压,就说明客户的需求是真实且持续的。

供应链

在技术创新之外,供应链保障能力正成为决定企业竞争力的关键因素。面对强劲的市场需求,两家公司都在积极应对供应链挑战。

陈福阳表示,当前人工智能需求旺盛,而定制化加速器普遍采用多芯片集成方案,这使得先进封装技术成为关键的技术瓶颈。新加坡先进封装工厂的建设,核心目的是部分实现先进封装工艺的自主化。这一决策并非单纯出于成本考量,更重要的是保障供应链安全与交付稳定性。公司正针对AI芯片的先进封装需求,打造一个规模化的专业生产基地。

晶圆产能方面,博通主要依赖台积电的3纳米和2纳米制程工艺,并持续与台积电沟通扩容。陈福阳表示,目前产能供应尚未出现明显瓶颈,但随着订单逐步落地,公司仍将密切关注产能动态。在整机柜交付模式下,博通还需要承担更多非自研组件的采购成本,这与XPU中包含的内存组件采用成本加成模式类似。

Marvell的供应链策略则更多聚焦于技术节点的快速迭代。公司在2纳米制程项目上的布局尤为激进,正在推进多个2纳米制程项目,该工艺将成为公司未来的主力制程技术。马特·墨菲强调,2纳米工艺带来的功耗优势极具吸引力,在AI时代,从一代制程到下一代制程的功耗降低,能够为客户节省可观的运营成本——这正是摩尔定律得以延续的核心驱动力。

从单点创新到生态竞争

纵观博通和Marvell的财报,一个清晰的趋势浮现出来:AI芯片产业的竞争,正在从单点技术创新演变为生态系统的全面竞争。

在早期阶段,芯片厂商的竞争主要集中在某一项核心技术上——比如更高的算力、更低的功耗、更先进的制程。但随着AI系统复杂度的提升,单一技术的优势已经难以形成护城河。客户需要的是从芯片到系统、从硬件到软件的完整解决方案,这要求芯片厂商具备更全面的技术能力和更强大的生态整合能力。

博通的优势在于其深度垂直整合能力。公司不仅提供XPU芯片,还提供网络交换机、DSP、激光器等全套组件,并能将这些组件整合为完整的机柜系统。这种能力的建立,既依赖于公司多年的技术积累,也得益于一系列成功的并购整合——威睿的收购强化了软件能力,Inphi、Innovium等收购则补强了网络和互联技术。

Marvell的优势则体现在技术平台的广度和开放性。公司从互联、交换机到存储,从定制化芯片到标准产品,拥有业界最全面的数据中心产品组合。这使得Marvell能够灵活应对不同客户的差异化需求——既可以为超大规模云厂商提供深度定制服务,也可以为系统集成商提供标准化产品。收购Celestial AI进一步强化了公司在前沿技术领域的竞争力。

两家公司都强调了与生态合作伙伴的紧密协作。博通与台积电在先进制程上的合作、与内存厂商在HBM上的合作、与光模块厂商在激光器上的合作,构成了完整的产业链生态。Marvell与线缆厂商在AEC上的合作、与CPU厂商在CXL上的合作、与超大规模云厂商在XPU互联上的合作,同样形成了强大的生态网络。

这种生态竞争的格局,对产业发展具有积极意义。它鼓励企业在保持核心技术优势的同时,更加开放地与产业链上下游合作,共同推动技术创新和市场拓展。对于客户而言,这意味着更多的选择和更灵活的解决方案;对于产业而言,这意味着更健康的竞争环境和更快的创新速度。

未来展望

基于两家公司披露的信息,我们可以做出一些简单预测。

首先,定制化XPU市场将进入快速增长期。博通预计2026财年AI业务营收将超过300亿美元,其中XPU相关业务占据主导地位。Marvell预计2028财年定制化业务营收将在2027财年基础上翻倍,全年数据中心业务营收增速达到40%。这些数字表明,定制化XPU已经从早期的试验阶段进入大规模商用阶段,市场规模将呈爆发式增长。

其次,光子互联技术将迎来商业化拐点。Celestial AI的收购案标志着光子互联技术从实验室走向商用的关键一步。预计2028财年下半年,Celestial AI将开始贡献可观营收,年化营收规模达到5亿美元;2029财年将翻倍至10亿美元。这只是一家企业的营收,整个光子互联市场的规模将远超这一数字。当铜基互联方案在传输距离与带宽上逼近物理极限时,光互联解决方案的替代需求将加速释放。

第三,规模化扩展架构将成为主流。随着AI集群规模从单机柜扩展到多机柜,规模化扩展交换机和互联器件的需求将快速增长。行业分析师预测,到2030年规模化扩展交换机市场将接近60亿美元,配套的光互联器件市场将突破100亿美元。Marvell计划于2027财年下半年推出UALink 115T与57T解决方案样品,2028财年实现量产,正是为了抢占这一市场机遇。

第四,先进制程将从3纳米向2纳米快速演进。两家公司都在积极推进2纳米项目,预计2028财年将有多款2纳米产品量产。2纳米工艺带来的功耗优势,在大功率XPU系统中尤为关键。当单颗XPU的功率达到数千瓦级别时,每一代制程的功耗降低都能为客户节省可观的运营成本,这将推动技术持续快速迭代。

第五,产业整合将持续深化。Marvell收购Celestial AI只是开始,预计未来几年还会有更多并购整合发生。AI芯片产业链长、技术复杂度高,单一企业难以覆盖所有技术领域,通过并购整合快速补强技术短板、拓展产品组合,将成为企业发展的重要路径。同时,拥有核心技术的初创企业也将成为巨头争夺的目标。

所有这些趋势汇聚到一起,勾勒出同一个方向:AI 加速正重塑半导体的技术路线与市场格局,同时也意味着真正的竞争才刚刚开始。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10