美光CEO:AI纔剛開始,但內存已經不夠了,今年DRAM與NAND需求或吞噬過半市場

華爾街見聞
05/04

美光科技CEO表示,隨着推理規模擴大,token需求將持續攀升,而token生成速度依賴更快、更大容量的內存——"內存已成為客戶的戰略資產"。他強調,當前面臨的核心矛盾不是需求或定價,而是供給本身極度緊張且無法快速擴產。

AI對DRAM和NAND的需求正在以超出產業供給能力的速度膨脹。按當前趨勢,這部分需求今年預計將超過內存行業總可尋址市場(TAM)的50%——而據分析師判斷,供給瓶頸在2028年之前不太可能得到實質性緩解。

美光科技CEO Sanjay Mehrotra近日接受CNBC採訪時直言,AI產業仍處於"早起階段"(First Innings)。他指出,隨着推理規模擴大,token需求將持續攀升,而token生成速度依賴更快、更大容量的內存——"內存已成為客戶的戰略資產"。他強調,當前面臨的核心矛盾不是需求或定價,而是供給本身極度緊張且無法快速擴產。

美光啱啱公布的2026財年Q2業績佐證了這一判斷:公司營收、毛利率、每股收益及自由現金流均創歷史新高,Q3預計將再度刷新紀錄。

供給缺口:2028年前難見拐點

美光指出,傳統服務器與AI服務器的需求均保持強勁,但同時受到DRAM和NAND供應緊張的制約。英國《金融時報》援引分析師觀點稱,考慮到新建晶圓廠所需的建設周期,供應緊缺局面在2028年之前不太可能緩解。

韓國媒體Global Economic的報道則給出了更具體的量化預期:隨着面向NVIDIA Vera Rubin等下一代AI GPU的12層HBM4開始放量,更為謹慎的預測認為到2027年行業可能僅能滿足約60%的DRAM需求。這一供需格局將鞏固內存廠商的定價權,但硬幣的另一面是,若量產進度未達預期,廠商的市場地位同樣可能承壓。

需求側的推力仍在加速。Agentic AI工作負載正推動CPU的內存支持規格向400GB擴展——約為當前水平的4倍。NVIDIA Vera Rubin、AMD MI400等下一代AI GPU均將搭載HBM4,在帶寬提升的同時大幅擴展容量上限。LPDDR則憑藉功耗效率優勢,正成為大規模AI部署中的首選方案。

美光的產品應對:HBM4已供貨,HBM4E明年量產

面對緊張的供需環境,美光正沿多條產品線推進下一代佈局。公司目前已為NVIDIA Vera Rubin平台供應36GB(12-Hi)HBM4 DRAM,現有HBM3工藝預計達到成熟良率。下一代HBM4E內存計劃明年開始量產爬坡。

在LPDDR領域,美光近期推出基於LPDDR5X的256GB SOCAMM2方案,可提供最高2TB容量。DDR5方面,公司正為NVIDIA Groq 3 LPX供貨,Groq LPU單芯片支持最高12TB容量。

消費端同樣感受到供給緊張的傳導效應。美光預計PC和智能手機出貨量將出現低雙位數下滑,主要受供應受限和價格上漲驅動。一個值得關注的趨勢信號是:32GB正在成為本地運行Agentic AI工作流的PC標準內存配置。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10