廣發證券:SRAM提升AI推理速度 相關架構進入主流大廠視野

智通財經
02/27

智通財經APP獲悉,廣發證券發布研報稱,在大模型應用中,相比依賴外置HBM,SRAM可顯著降低權重與激活數據的訪延遲與抖動,從而改善Time-to-First-Token與尾時延表現。目前,Groq與Cerebras都相繼推出基於SRAMAI芯片。SRAM架構進入主流視野,根據Groq官網以及市場媒體報道,英偉達此前斥資200億美元獲得Groq的知識產權的非獨家授權;OpenAI與Cerebras簽署100億美元合同,部署多達750兆瓦的定製AI芯片。

廣發證券主要觀點如下:

SRAM是片上高帶寬存儲層

存儲分級為SRAM、HBM、DRAM和SSD,其中SRAM(靜態隨機存取存儲器)集成在CPU、GPU計算核心附近的片上存儲,具備納秒級訪問時延與高度確定性的帶寬特性,帶寬高但容量小、成本高。

SRAM可提升AI推理速度

在大模型應用中,相比依賴外置HBM,SRAM可顯著降低權重與激活數據的訪延遲與抖動,從而改善Time-to-First-Token與尾時延表現。Groq和Cerebras兩家明星創業公司都推出了基於SRAM的AI芯片。

根據Groq官網,其LPU單芯片內集成約230MB片上SRAM,存儲帶寬高達80 TB/s(GPU片外HBM 的內存帶寬約為8TB/s)。以Llama3.3 70B模型為例,根據Artificial Analysis的獨立基準測試,GroqLPU芯片在不同上下文長度下均能維持穩定推理速度,達275-276token/s,顯著優於其他推理平台。

根據Cerebras官網,其晶圓級引擎3(WSE-3)芯片集成44GB SRAM,片上存儲帶寬達21 PB/s,在OpenAI GPTOSS 120B推理任務中實現>3000 tokens/s的輸出速度,較主流GPU雲推理快約15×。此外,2026年2月,OpenAI推出首個運行在Cerebras Systems AI加速器上的模型GPT-5.3-Codex-Spark預覽版,支持>1000tokens/s的代碼生成響應速度,為用戶提供更具交互性的編程體驗。

SRAM架構進入主流視野

根據Groq官網、半導體行業觀察公衆號數據,2025年12月,英偉達斥資200億美元獲得Groq的知識產權的非獨家授權,其中包括其語言處理單元(LPU)和配套軟件庫,並引入Groq核心工程團隊。根據Openai官網、芯東西公衆號數據,2026年2月,Cerebras宣佈完成10億美元F輪孖展,估值達230億美元,此外,OpenAI與Cerebras簽署100億美元合同,部署多達750兆瓦的定製AI芯片。

投資建議

AI的Memory時刻,AI記憶持續擴展模型能力邊界,AI Agent等應用加速落地。AI記憶相關上游基礎設施價值量、重要性將不斷提升,建議關注產業鏈核心受益標的。

風險提示

AI產業發展以及需求不及預期;AI服務器出貨量不及預期,國產廠商技術和產品進展不及預期。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10