智通財經APP獲悉,廣發證券發布研報稱,在大模型應用中,相比依賴外置HBM,SRAM可顯著降低權重與激活數據的訪延遲與抖動,從而改善Time-to-First-Token與尾時延表現。目前,Groq與Cerebras都相繼推出基於SRAMAI芯片。SRAM架構進入主流視野,根據Groq官網以及市場媒體報道,英偉達此前斥資200億美元獲得Groq的知識產權的非獨家授權;OpenAI與Cerebras簽署100億美元合同,部署多達750兆瓦的定製AI芯片。
廣發證券主要觀點如下:
SRAM是片上高帶寬存儲層
存儲分級為SRAM、HBM、DRAM和SSD,其中SRAM(靜態隨機存取存儲器)集成在CPU、GPU計算核心附近的片上存儲,具備納秒級訪問時延與高度確定性的帶寬特性,帶寬高但容量小、成本高。
SRAM可提升AI推理速度
在大模型應用中,相比依賴外置HBM,SRAM可顯著降低權重與激活數據的訪延遲與抖動,從而改善Time-to-First-Token與尾時延表現。Groq和Cerebras兩家明星創業公司都推出了基於SRAM的AI芯片。
根據Groq官網,其LPU單芯片內集成約230MB片上SRAM,存儲帶寬高達80 TB/s(GPU片外HBM 的內存帶寬約為8TB/s)。以Llama3.3 70B模型為例,根據Artificial Analysis的獨立基準測試,GroqLPU芯片在不同上下文長度下均能維持穩定推理速度,達275-276token/s,顯著優於其他推理平台。
根據Cerebras官網,其晶圓級引擎3(WSE-3)芯片集成44GB SRAM,片上存儲帶寬達21 PB/s,在OpenAI GPTOSS 120B推理任務中實現>3000 tokens/s的輸出速度,較主流GPU雲推理快約15×。此外,2026年2月,OpenAI推出首個運行在Cerebras Systems AI加速器上的模型GPT-5.3-Codex-Spark預覽版,支持>1000tokens/s的代碼生成響應速度,為用戶提供更具交互性的編程體驗。
SRAM架構進入主流視野
根據Groq官網、半導體行業觀察公衆號數據,2025年12月,英偉達斥資200億美元獲得Groq的知識產權的非獨家授權,其中包括其語言處理單元(LPU)和配套軟件庫,並引入Groq核心工程團隊。根據Openai官網、芯東西公衆號數據,2026年2月,Cerebras宣佈完成10億美元F輪孖展,估值達230億美元,此外,OpenAI與Cerebras簽署100億美元合同,部署多達750兆瓦的定製AI芯片。
投資建議
AI的Memory時刻,AI記憶持續擴展模型能力邊界,AI Agent等應用加速落地。AI記憶相關上游基礎設施價值量、重要性將不斷提升,建議關注產業鏈核心受益標的。
風險提示
AI產業發展以及需求不及預期;AI服務器出貨量不及預期,國產廠商技術和產品進展不及預期。