财报前瞻 | 云巨头们发起“AI成本革命”,属于ASIC的时代到来! 迈威尔科技(MRVL.US)业绩腾飞在即

智通财经
Mar 02

智通财经APP获悉,聚焦于大型AI数据中心定制化AI芯片(即AI ASIC),以及作为亚马逊AWS Trainium系列AI ASIC最大规模合作伙伴之一的迈威尔科技(MRVL.US)将于美东时间3月5日美股盘后公布业绩报告。华尔街分析师们一致预期在AI推理大浪潮以及聚焦将AI大模型嵌入企业经营的“微训练”趋势之下,性价比更高AI ASIC将对于英伟达近乎90%市场份额的AI芯片垄断地位发起强有力冲击,因此分析师们预计AI ASIC领军者迈威尔以及更大市场规模的ASIC霸主博通(AVGO.US)都将实现强劲的业绩增长数据,并且管理层有望给出强劲的业绩展望区间。

迈威尔在此前最近发布的2026财年第三季度财报中(截至2025年11月1日的业绩)实现净营收约20.75亿美元,同比增长约37%并略超市场预期,调整后每股收益也高于华尔街预测,该公司第三财季的强劲增长表现反映出云计算领军者们AI数据中心新建与扩建狂潮带来的定制化AI ASIC需求炸裂式扩张。

Zacks Investment Research汇编的华尔街分析师预期数据显示,预计Marvell第四财季的调整后每股收益约为0.79美元,意味着有望较去年同期增长31.7%;预期该芯片公司第四财季营收大约为 22 .1亿美元,意味着有望在上年的强劲基数基础上实现同比大幅增长 21%。对于本财年,分析师们普遍预期每股收益将为 2.84 美元,意味着有望较上年猛增80.9%;分析师们对于迈威尔科技的本财年和下一财年营收预期分别为81.8亿美元和100亿美元,意味着分别有望同比增长41.8%以及22.3%。

此外,随着迈威尔完成了针对光互连技术公司的收购,这将进一步增强其在高带宽、低延迟AI数据中心基础设施领域的技术能力。预计这笔收购将在未来几年内逐步贡献营收增速,并助力公司在AI生态系统中扩大份额。在此前业绩报告中,除了强劲Q3业绩以及当前季度业绩展望强劲扩张,该芯片公司还在财报披露中重磅透露将以32.5亿美元收购聚焦光互连I/O的芯片初创公司Celestial AI以强化其网络产品组合。

迈威尔科技公司的首席执行官马特·墨菲(Matt Murphy)在业绩电话会议上表示,Celestial的技术将被用于迈威尔科技的下一代与硅光子相关的基础设施硬件类产品中,而这些产品将为迈威尔科技公司贡献一个新增的且规模有望达100亿美元的超级蓝海市场。

墨菲等公司高层还表示,预计自2028财年下半年起将开始从Celestial AI业务中获得可观的营收贡献,至2028财年第四季度实现年化营收经营预期规模约5亿美元,并在2029财年第四季度将这一营收预期翻倍至10亿美元。

市场对于英伟达前景的担忧是正确的

席卷全球的生成式AI热潮加快了云计算与芯片巨头们的AI芯片开发进程,它们正争相为先进的大型AI数据中心设计速度最快且能效最为强劲的AI算力基础设施集群。迈威尔及其最大竞争对手博通公司主要聚焦于利用自身在高速互联和芯片IP领域绝对优势来携手亚马逊、谷歌微软等云计算巨头们共同打造出根据其AI数据中心具体需求量身定制的AI ASIC算力集群,而这项ASIC业务已经成长为两家公司的一项非常重要业务,比如博通联手谷歌所打造的TPU AI算力集群就是一种最典型的AI ASIC技术路线。

亚马逊新任的人工智能基础设施负责人Peter DeSantis在上周五接受媒体采访时表示:“如果我们能够在自己的自研AI芯片上构建模型,我们就能以纯AI大模型提供商成本的仅仅一小部分来构建这些模型。”

DeSantia还补充表示:“构建超大规模的AI数据中心确实存在一定程度上的成本问题。如果我们最终希望AI改变一切,成本就必须有所不同。”

市场普遍认为,“AI芯片超级霸主”英伟达(NVDA.US)当前仍然掌握了AI算力基础设施最核心领域——人工智能芯片市场的绝大部分市场份额。这家由黄仁勋领导的芯片巨头刚刚公布了大幅超出预期的2026财年第四季度业绩和下一财季业绩指引,但其股价周四却大幅下跌了5%,主要因市场愈发担忧来自hyperscalers(超大规模云计算巨头们)近期密集宣布将推出基于自研模式的性价比更高AI ASIC芯片的动向,愈发显现出对英伟达在全球AI基建最核心领域——AI芯片领域长期绝对主导地位构成风险的迹象。

毋庸置疑的是,随着有着“OpenAI劲敌”称号的Anthropic计划斥资数百亿美元购置100万块TPU芯片,以及Facebook母公司Meta考虑2026年晚些时候或者2027年斥资数十亿美元购买谷歌TPU AI算力基础设施,包括用于Meta的无比庞大AI数据中心建设,加之亚马逊宣布将尝试使用Trainium和Inferentia开发AI大模型,共同说明随着云计算巨头们发起“AI算力成本革命”以推进自研AI ASIC渗透规模,市场对于英伟达前景的担忧是正确的。

AI推理大浪潮来袭,英伟达“垄断式份额”面临剧烈冲击

毫无疑问的是,经济性与电力层面的重大约束,迫使微软、亚马逊、谷歌以及Facebook母公司Meta都在推AI ASIC技术路线的云计算内部系统自研AI芯片,核心目的都是为了AI算力集群更具性价比与能效比。

类似“星际之门”的超大规模AI数据中心建设成本高昂,因此科技巨头们愈发要求AI算力系统趋于经济性,以及电力约束之下,科技巨头力争把“单位Token成本、单位瓦特产出”做到极致,属于AI ASIC技术路线的繁荣盛世可谓已经到来。

此外,类似英伟达Blackwell架构先进AI GPU算力集群的长期供不应求、成本高昂且受制于供应链瓶颈与交付节奏,自研AI ASIC无疑能提供“第二曲线产能”,并在采购谈判、产品定价与云计算服务毛利层面更主动,叠加谷歌、微软等云计算大厂们能把“芯片—互联—系统—编译器/运行时—调度—观测/可靠性”一体化共设计,提高算力基础设施利用率并降低TCO。

英伟达AI GPU几乎垄断的AI训练侧需要更加强大的AI算力集群通用性以及整个算力体系的快速迭代能力,而AI推理侧则在前沿AI技术规模化落地后更看重单位token成本、延迟与能效。比如谷歌明确把Ironwood定位为“为AI推理时代而生”的TPU代际,并强调性能/能效/算力集群性价比与可扩展性。不过亚马逊最新的行动证明了AI ASIC可能具备训练大模型的强大潜力。

AI ASIC算力体系无疑会在中长期持续削弱英伟达的垄断溢价与部分市场份额,而不是线性取代GPU体系,根本的底层原因在于,推理时代的核心竞争不再只是“峰值算力”,而是每token成本、功耗、内存带宽利用率、互连效率,以及软硬件协同后的总拥有成本。在这类指标上,面向特定工作负载定制的数据流、编译器和互连的ASIC,天然比通用GPU更容易做到高性价比。

但是,对英伟达和AMD而言,这很大程度上意味着边际压制是真实存在的,但更可能表现为议价权下滑、份额被分食、估值溢价被压缩,而非绝对需求塌陷。AI ASIC在AI推理超级浪潮下无疑将持续冲击英伟达主导的GPU垄断格局,但冲击更像是重塑产业利润池与客户采购结构,而不是让GPU扩张逻辑失效。

AWS官方就明确把 Trainium/Inferentia 定位为面向生成式AI训练与推理的专用加速器,其中Trainium2相比其AI GPU云实例给出约30%–40%更优价格性能;而谷歌此前不久也已公开表示,Gemini 2.0 的训练和推理100%运行在TPU上。这说明“超大云计算厂商用自研ASIC承接核心模型训练/推理”已不再是概念验证,而是在进入可复制的产业化阶段。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10