英偉達出手,SRAM重回C位

藍鯨財經
2小時前

文|半導體產業縱橫

過去兩年,全球半導體產業的聚光燈始終打在HBM身上。這種通過硅通孔技術垂直堆疊的DRAM,伴隨英偉達GPU的大規模出貨,完成了從一個小衆產品到供不應求的「硬通貨」的蛻變。然而,就在2026年的春天,一個看似陳舊的技術名詞——SRAM(靜態隨機存取存儲器),正在以驚人的速度重回舞台中央。

要理解這場復權的底層邏輯,必須先釐清存儲層級的基本分工。在當代計算架構中,存儲系統呈現為一座金字塔:塔尖是集成在CPU、GPU計算核心附近的片上SRAM,具備納秒級訪問時延與高度確定性的帶寬特性,帶寬極高但容量極小、成本極高;向下依次是HBM、DRAM和SSD,每一級的容量遞增,但時延和帶寬的不確定性也隨之增加。在過去以訓練為主的時代,大容量吞吐比納秒級響應更重要,因此HBM佔據了主導。但當AI應用從實驗室走向普羅大衆,當用戶體驗的標尺從「模型有多大」轉向「回答有多快」,這座金字塔的受力結構正在發生深刻變化。

3月17日,加州聖何塞SAP中心的舞台上,身着標誌性黑色皮夾克的黃仁勳用兩個半小時的演講,正式為這一趨勢寫下了註腳。在這場備受矚目的GTC 2026主題演講中,英偉達正式發布了集成Groq LPU架構的推理芯片,並披露了令人矚目的技術細節:最新Groq 3 LPU單芯片集成500MB片上SRAM,存儲帶寬高達150TB/s,而作為對比,主流GPU的片外HBM4帶寬約為22TB/s。

更令人震撼的是其機架級方案:Groq 3 LPX機架搭載256個LPU處理器,提供128GB片上SRAM和高達40PB/s的推理加速帶寬,並通過每個機架640TB/s的專用擴展接口將這些芯片連接在一起。黃仁勳在現場宣佈,這款芯片將由三星電子代工,目前已進入生產階段,預計今年下半年開始出貨。更令業界震動的是,OpenAI已確定成為該芯片的首批客戶,並承諾投入300億美元採購相關推理算力。這不僅是英偉達在AI芯片之路上的一次技術路線微調,更是一個清晰的信號:AI計算的需求結構正在發生根本性位移,推理已取代訓練,成為定義下一代芯片架構的決定性力量。

 SRAM如何重塑AI推理體驗

要理解SRAM為何在此時爆發,必須首先釐清AI工作負載的歷史性轉折。過去五年,AI產業的中心矛盾是「算力飢渴」,即如何用更多的GPU堆出更大的模型。彼時,無論是OpenAI還是Google,核心訴求都是用最短的時間完成海量數據的預訓練。在那個階段,HBM憑藉其極高的容量和數據傳輸速率,完美地充當了GPU計算核心的「糧倉」,儘管存在延遲,但吞吐量是第一要務。

然而,德勤在《2026科技、傳媒和電信行業預測》中斷言,到2026年,「推理」將佔據全部AI計算能力的三分之二。當AI Agents開始承擔複雜的多步驟任務,當代碼生成工具需要實時響應用戶的每一次按鍵,用戶體驗的衡量標尺發生了翻天覆地的變化。用戶不再關心模型訓練了多久,只關心提問後多久能看到第一個字(Time-to-First-Token),以及文字生成是否流暢無卡頓(尾時延)。

這正是Groq投資人Gavin Baker所強調的「推理拆分」:模型處理提示詞的prefill階段依然需要GPU的大規模並行算力,而逐字生成回覆的decode階段,瓶頸早已不在算力,而在內存帶寬。傳統GPU的困境在於,其海量參數存放在片外的HBM中。每生成一個token,計算核心都需要穿越複雜的封裝和互連線路去HBM中搬運一次權重。這種「遠距離運輸」在prefill階段或許可以容忍,但在需要串行輸出成百上千個token的decode階段,卻造成了巨大的延遲和能耗浪費。

在大模型應用中,相比依賴外置HBM,SRAM可顯著降低權重與激活數據的訪存延遲與抖動,從而改善Time-to-First-Token與尾時延表現。Groq和Cerebras兩家明星創業公司正是抓住了這一技術痛點,推出了基於SRAM的AI芯片。當新一代Groq LPU將片上帶寬提升至HBM的7倍時,其意義不僅是數字上的領先,而是從根本上改變了推理的體驗邊界。以Llama 3.3 70B模型為例,根據Artificial Analysis等獨立基準測試,Groq平台在不同上下文長度下能維持200-300+ token/s的穩定推理速度,顯著優於傳統GPU推理平台。這種帶寬的確定性和時延的可預測性,對於構建實時交互系統而言至關重要。

而Cerebras則走得更遠。根據Cerebras官網信息,其晶圓級引擎3(WSE-3)芯片集成了高達44GB的片上SRAM,片上存儲帶寬達到驚人的21 PB/s。這種將整片晶圓做成一顆芯片的激進設計,使得海量計算核心與海量SRAM之間的數據交換幾乎不存在瓶頸。在OpenAI GPT-OSS 120B推理任務中,Cerebras實現了超過3000 tokens/s的輸出速度,較主流GPU雲推理快約15倍。如果說Groq證明了SRAM架構在單卡推理上的效率優勢,Cerebras則展示了當SRAM容量足夠大時,推理速度可以逼近何種極限。SRAM就像放在CEO辦公桌上的便籤紙,無需等待祕書從檔案室調取文件,抬手即可獲取。這種「納秒級」的響應速度,對於構建真正具備實時交互感的AI Agent而言,是致命的競爭優勢。

 英偉達的「鈔能力」與SRAM的迴歸

英偉達顯然洞察到了這一範式轉移的風險。儘管其在訓練市場佔據絕對統治地位,但在低延遲推理這一細分戰場上,Groq和Cerebras等創業公司正憑藉SRAM架構撕開裂縫。如果任由這種趨勢發展,未來數據中心可能會演變為「GPU做訓練、LPU做推理」的雙頭格局,英偉達的統治版圖將被從邊緣蠶食。

去年12月,英偉達斥資200億美元獲得Groq知識產權的非獨家授權,其中包括其語言處理單元(LPU)和配套軟件庫,並吸納了Groq核心工程團隊。這筆交易的戰略意義遠大於財務數字。它意味着英偉達承認,在純粹的串行推理場景中,GPU的架構確實存在短板,而Groq的SRAM方案是目前最好的補丁。

與此同時,SRAM陣營的另一極也在快速壯大。根據 Cerebras 官方披露,2026 年 2 月,Cerebras 宣佈完成 10 億美元 H 輪孖展,估值達到 230 億美元。更引人注目的是,OpenAI與Cerebras簽署了一份高達100億美元的合同,部署多達750兆瓦的定製AI芯片。緊接着在2026年2月,OpenAI推出了首個運行在Cerebras Systems AI加速器上的模型——GPT-5.3-Codex-Spark預覽版,該模型支持超過1000 tokens/s的代碼生成響應速度,為用戶提供更具交互性的編程體驗。這一系列動作清晰地表明,頭部大模型廠商已經開始為下一代實時交互應用儲備「SRAM算力」。

根據GTC 2026上正式發布的信息,英偉達並未採用將LPU單元3D堆疊在GPU核心晶圓上的激進方案,而是採取了更為務實的路線:Groq 3 LPU作為獨立的推理加速器芯片,與Rubin GPU通過協同設計的架構進行組合,共同構成Vera Rubin平台。雲岫資本此前的分析指出,若通過PCIe等外部接口連接,數據傳輸會引入新的延遲,部分抵消SRAM的優勢。

這意味着未來的AI芯片將出現複雜的異構內存層級:底層是負責prefill的計算晶圓,中間層是通過3D堆疊提供的巨大SRAM緩存用於高速decode,旁邊則依然通過CoWoS封裝着大容量的HBM用於存儲海量上下文(KV Cache)。這種設計既保留了GPU在並行計算上的統治力,又吸收了LPU在串行生成上的低延遲優勢,同時還能通過英偉達的Dynamo推理框架和KV緩存管理系統,智能地路由不同的token請求。

可以說,SRAM的迴歸並非要「殺死」HBM,而是將內存層級推向一個更精細化分工的多元時代。

 機遇,來了

英偉達的技術轉向,在資本市場上激起了巨大的漣漪,也引發了一些有趣的誤讀。當「英偉達將推SRAM推理芯片」的消息傳出後,韓國股市一度劇烈波動,市場擔憂SRAM的使用會減少對HBM的需求,進而衝擊三星和SK海力士的核心業務。然而,這種擔憂很快被專業機構澄清為誤判。

從物理特性看,SRAM的單元面積是DRAM的5到10倍,每比特成本極高,註定無法替代HBM作為主內存的角色。即便Cerebras的WSE-3集成了44GB SRAM,這已是工程上的奇蹟,但要存儲一個700億參數模型的全部權重,仍需要數百GB的存儲空間,這隻能由HBM或DRAM來承擔。SRAM的用武之地在於需要極致低延遲的特定場景,比如OpenAI的代碼生成工具,或者未來的物理AI機器人——這些場景中,每毫秒的延遲都可能打斷人類的思維流或機器人的動作連續性。

事實上,內存層級的細分反而會擴大整個市場的總規模。因為未來每一個數據中心可能都需要同時配備用於訓練的HBM服務器和用於實時響應的SRAM加速卡。HBM負責承載模型的「長期記憶」,而SRAM負責處理需要「瞬時反應」的交互任務。兩者是互補而非替代關係。韓系存儲巨頭需要警惕的,不是SRAM替代HBM,而是如果SRAM加速卡大規模部署,GPU的採購比例是否會發生變化,進而影響HBM的搭載率。

此外,當推理市場的聚光燈轉向SRAM,半導體產業鏈的受益邏輯也隨之發生微妙變化。過去,HBM的繁榮主要利好的是專門從事記憶體制造的廠商。而現在,由於SRAM直接集成在邏輯芯片內部,依賴於先進邏輯製程,晶圓代工廠的地位被前所未有地凸顯出來。

在此次GTC 2026上,台積電被供應鏈明確點名為「受惠第一排」。SRAM作為嵌入式計算核心的一部分,其設計與製造完全依賴於頂尖的邏輯製程工藝。無論是英偉達採用N3P製程打造下一代LPU,還是AMD英特爾以及各大ASIC廠商跟進類似的SRAM增強架構,最終都要回歸到台積電的先進產線。對於台積電而言,這不僅意味着更高的晶圓平均銷售單價(因為芯片面積增大、製程更先進),更鞏固了其在AI半導體制造領域的核心樞紐地位。

與此同時,中國台灣的存儲供應鏈也在這股浪潮中找到了新的敘事空間。過去,由於其在標準DRAM和HBM領域的份額遠不及韓系廠商,往往在AI存儲盛宴中扮演陪跑角色。但SRAM路線的興起,為他們打開了一扇窗。此次GTC前後,市場關注點迅速鎖定了幾家具備想象空間的台廠。

華邦電因其具備SRAM量產經驗而受到關注,其定製化內存(CMS)業務中的PSRAM(僞靜態隨機存取存儲器),結合了DRAM的高容量與SRAM的高速接口特性,被視為在成本與性能之間的折中方案 。力積電則通過其3D AI Foundry策略,展現了在多層晶圓堆疊與高容值中介層技術上的實力,具備了承接SRAM相關代工的潛力 。此外,鈺創的產品線覆蓋38納米、63納米制程的SRAM,容量範圍剛好符合Groq LPU採用的標準;而愛普則提供新一代ApSRAM,在功耗和帶寬上實現倍數級提升。

這表明,雖然SRAM的核心製造在台積電,但其相關的IP設計、利基型產品供應以及先進封裝配套,為整個國產的半導體生態帶來了增量機會。

站在此刻回望,SRAM的迴歸像是一場技術的輪迴。在半導體歷史上,每一次算力中心的轉移,都會伴隨存儲層級的重構。當AI產業從訓練狂飆轉入推理深耕,當用戶體驗的焦點從「模型有多大」轉向「回答有多快」,我們正在見證的不僅是英偉達一家公司的產品迭代,更是一個時代的切換。存儲金字塔的頂端,那個曾經因為成本過高而被束之高閣的SRAM,正在因為人類對實時交互的渴望,重新煥發生機。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10