三星、美光、英特爾分食英偉達大單:三星代工LPU,美光量產HBM4

華爾街見聞
3小時前

英偉達GTC 2026大會不僅是一場產品發布秀,更是一次供應鏈格局的重新洗牌。隨着英偉達下一代AI平台Vera Rubin的架構細節逐步落地,三星美光英特爾三大芯片巨頭在其中扮演的角色也隨之浮出水面。

據TrendForce報道,在最受關注的供應鏈動態中,英偉達CEO黃仁勳首次公開確認,旗下Groq 3 LPU由三星代工生產;美光則宣佈HBM4已於2026年第一季度進入量產階段,打破此前被排除在Vera Rubin供應鏈之外的傳言。兩則消息直接牽動HBM市場的競爭格局與供應商議價能力。

與此同時,英特爾也在本次大會上坐實了與英偉達的合作關係,確認其Xeon 6處理器將為DGX Rubin NVL8系統提供算力支撐。更長遠來看,據Wccftech報道,英特爾有望以晶圓代工身份參與英偉達2028年推出的下一代Feynman GPU的封裝生產。

三星拿下LPU代工訂單,黃仁勳親口確認

Groq 3是本屆GTC最受矚目的發布之一。這款專為高速推理設計的LPU將被整合進Vera Rubin平台,計劃於2026年下半年開始出貨。據韓國《朝鮮日報》報道,黃仁勳在大會上首次公開確認,Groq 3由三星晶圓代工廠負責生產,延續了英偉達去年以200億美元收購Groq之前,Groq與三星之間已有的代工協議。

在技術層面,Groq 3的設計邏輯與主流AI加速器存在顯著差異。據Tom's Hardware報道,每顆Groq 3 LPU內置500MB SRAM——這是通常用於CPU和GPU緩存的超高速存儲器。

儘管這一容量遠小於Rubin GPU所配備的288GB HBM4,但其帶寬高達約150TB/s,遠超HBM4提供的22TB/s。對於帶寬密集型AI推理解碼任務而言,這一設計有望大幅提升推理性能。

三星此番拿下代工訂單,意味着其在英偉達供應鏈中的角色從HBM4存儲供應商進一步延伸至邏輯芯片代工領域,在Vera Rubin平台上的戰略地位得到強化。

美光HBM4量產落地,SK海力士壟斷溢價承壓

美光在本次大會上正式宣佈,36GB 12層堆疊HBM4已於2026年第一季度開始為英偉達Vera Rubin平台量產供貨。該產品引腳速率超過11 Gb/s,帶寬超過2.8 TB/s,較HBM3E提升2.3倍,同時功耗效率提升逾20%。此外,美光已開始向客戶發送48GB 16層堆疊HBM4樣品,相較12層版本,單顆容量提升33%。

這一進展的市場意義不僅在於美光自身的技術突破。據Joseilbo.com分析,美光的量產提速將降低HBM供應商集中度,在出貨量分配和價格談判上對現有供應商形成更大壓力。報道指出,此舉的核心影響並非直接蠶食SK海力士的市場份額,而是削弱HBM需求高峯期間形成的壟斷溢價。

三星同樣面臨更直接的競爭壓力。Joseilbo.com指出,儘管三星已正式推進HBM4生產以彰顯技術實力,但美光為英偉達Vera Rubin平台提供大規模供貨,可能將行業競爭的評判標準從"能否量產"轉向"實際採用規模",對三星構成新的挑戰。

英特爾雙線佈局,Feynman封裝合作浮出水面

英特爾在本屆GTC的存在感同樣不容忽視。英特爾正式確認,其Xeon 6處理器將為英偉達DGX Rubin NVL8系統提供支撐。據Tom's Hardware報道,該產品相較上一代內存帶寬提升2.3倍,可為下一代GPU加速工作負載提供可擴展的高性能AI算力。

在更長遠的佈局上,據Wccftech報道,英偉達有意與英特爾在晶圓代工領域展開合作,藉助英特爾包括EMIB在內的先進封裝技術,為2028年亮相的Feynman GPU提供封裝支持。值得注意的是,Feynman GPU的芯片本體預計採用台積電1.6nm工藝生產,英特爾的參與主要集中在封裝環節。

Feynman平台還將引入3D芯片堆疊技術,這可能是英偉達首次在GPU產品上採用3D堆疊設計。在存儲方面,英偉達計劃為Feynman配備定製化HBM,而非標準規格的下一代HBM產品,進一步強化其AI數據中心平台的差異化競爭優勢。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10