科技巨头AI支出大增,为什么英伟达还跌了?

华尔街见闻
May 01

科技巨头密集上调AI资本开支,理应是英伟达的重大利好,但市场给出了截然相反的答案。

周四,英伟达股价下跌逾4%,跌破200美元关口,单日跌幅金额近10美元。

此前一晚,Meta、Alphabet、微软亚马逊相继公布财报,四家超大规模云计算商合计预计在2026年投入高达7250亿美元用于AI基础设施建设。

英伟达占据AI加速芯片市场约90%的份额,按常理,这一投资浪潮本应直接惠及这家芯片巨头。但是投资者的担忧,当英伟达最重要的客户开始大规模自研芯片,其市场主导地位将面临挑战。

此前Alphabet宣布将向外部客户销售自研TPU芯片,亚马逊则在财报电话会议上着重强调自研芯片业务的快速增长。

谷歌TPU"破圈",触动市场最敏感神经

Alphabet宣布,将向外部精选客户销售自研TPU芯片,客户可将其部署于自有数据中心基础设施之中。

此前,TPU几乎完全服务于谷歌内部生态。一旦面向外部商业化,TPU将从英伟达GPU的潜在竞争者,演变为具有实质威胁的市场对手。

尽管TPU在通用灵活性上普遍被认为不及英伟达的解决方案,但针对特定AI应用场景,其成本效益优势较为突出。

亚马逊同样在财报电话会议上强调自研芯片业务的扩张势头。

据彭博报道,亚马逊CEO Andy Jassy表示,该公司芯片业务年化营收已突破200亿美元,同比呈三位数增长,核心产品为自研的Trainium芯片。

华尔街分析师:自研芯片浪潮构成"重大风险"

对于这一竞争态势,华尔街已有分析师发出明确警示。

Seaport Research半导体分析师Jay Goldberg直言:

这有可能从根本上颠覆英伟达,我认为这是相当重大的风险。

Goldberg的逻辑基于超大规模云计算商的体量与资本实力。这些公司既是英伟达最大的客户,也在持续投入资源成为其竞争者。

Alphabet第一财季云收入同比增长63%至200.3亿美元,订单积压接近翻倍至逾4600亿美元,其中相当部分由内部TPU承接。

Meta则在将2026年资本开支指引上调至1250亿至1450亿美元的同时,同步推进MTIA自研芯片项目。

不过,并非所有分析师都认同这一悲观判断。

Bernstein Research的Stacy Rasgon提出反驳,认为"纠结于谁赢谁输是错误的问题"。他的逻辑在于:AI智能体的兴起令计算需求呈爆发式增长,当前制约行业的关键因素是供给,而非需求。

在此背景下,所有具备可信产能的芯片制造商,包括英伟达均能实现产能满销。

英伟达目前握有952亿美元供应承诺,合作客户覆盖OpenAI、Anthropic、CoreWeave及Meta等头部机构。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10