美光CEO:AI才刚开始,但内存已经不够了,今年DRAM与NAND需求或吞噬过半市场

华尔街见闻
May 04

美光科技CEO表示,随着推理规模扩大,token需求将持续攀升,而token生成速度依赖更快、更大容量的内存——"内存已成为客户的战略资产"。他强调,当前面临的核心矛盾不是需求或定价,而是供给本身极度紧张且无法快速扩产。

AI对DRAM和NAND的需求正在以超出产业供给能力的速度膨胀。按当前趋势,这部分需求今年预计将超过内存行业总可寻址市场(TAM)的50%——而据分析师判断,供给瓶颈在2028年之前不太可能得到实质性缓解。

美光科技CEO Sanjay Mehrotra近日接受CNBC采访时直言,AI产业仍处于"早起阶段"(First Innings)。他指出,随着推理规模扩大,token需求将持续攀升,而token生成速度依赖更快、更大容量的内存——"内存已成为客户的战略资产"。他强调,当前面临的核心矛盾不是需求或定价,而是供给本身极度紧张且无法快速扩产。

美光刚刚公布的2026财年Q2业绩佐证了这一判断:公司营收、毛利率、每股收益及自由现金流均创历史新高,Q3预计将再度刷新纪录。

供给缺口:2028年前难见拐点

美光指出,传统服务器与AI服务器的需求均保持强劲,但同时受到DRAM和NAND供应紧张的制约。英国《金融时报》援引分析师观点称,考虑到新建晶圆厂所需的建设周期,供应紧缺局面在2028年之前不太可能缓解。

韩国媒体Global Economic的报道则给出了更具体的量化预期:随着面向NVIDIA Vera Rubin等下一代AI GPU的12层HBM4开始放量,更为谨慎的预测认为到2027年行业可能仅能满足约60%的DRAM需求。这一供需格局将巩固内存厂商的定价权,但硬币的另一面是,若量产进度未达预期,厂商的市场地位同样可能承压。

需求侧的推力仍在加速。Agentic AI工作负载正推动CPU的内存支持规格向400GB扩展——约为当前水平的4倍。NVIDIA Vera Rubin、AMD MI400等下一代AI GPU均将搭载HBM4,在带宽提升的同时大幅扩展容量上限。LPDDR则凭借功耗效率优势,正成为大规模AI部署中的首选方案。

美光的产品应对:HBM4已供货,HBM4E明年量产

面对紧张的供需环境,美光正沿多条产品线推进下一代布局。公司目前已为NVIDIA Vera Rubin平台供应36GB(12-Hi)HBM4 DRAM,现有HBM3工艺预计达到成熟良率。下一代HBM4E内存计划明年开始量产爬坡。

在LPDDR领域,美光近期推出基于LPDDR5X的256GB SOCAMM2方案,可提供最高2TB容量。DDR5方面,公司正为NVIDIA Groq 3 LPX供货,Groq LPU单芯片支持最高12TB容量。

消费端同样感受到供给紧张的传导效应。美光预计PC和智能手机出货量将出现低双位数下滑,主要受供应受限和价格上涨驱动。一个值得关注的趋势信号是:32GB正在成为本地运行Agentic AI工作流的PC标准内存配置。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10