200億美元!OpenAI押注「迄今為止最大」AI芯片,片上SRAM進入主流視野

藍鯨財經
昨天

文|《科創板日報》

在大部分人的認知裏,受摩爾定律和空間需求推動,芯片幾乎總是越做越微小。OpenAI卻用一筆訂單證明,哪怕反其道而行,同樣能在飛速狂奔的AI產業中爭得一席之地。

據媒體報道,OpenAI已與芯片設計商Cerebras達成協議,承諾在未來三年內支付逾200億美元,以使用由後者芯片驅動的服務器。除此之外,OpenAI還同意向後者提供約10億美元的資金,以幫助其開發能夠運行其人工智能產品的數據中心。

根據上述協議,OpenAI將有可能獲得Cerebras約10%的的認股權證,並且其持股比例可能會隨着對Cerebras投資的增加而提高。

交易本身不難理解,如今正值OpenAI「去英偉達」戰略的關鍵期,即通過多元化硬件佈局來減少對英偉達芯片的依賴。出人意料的是,Cerebras的技術路徑與英偉達,甚至可以說與絕大多數AI芯片創企截然不同——既非通用GPU也非ASIC,而是專注「像餐盤一樣大」的晶圓級引擎(WSE)。

Cerebras最新一代晶圓級引擎是2024年發布的WSE-3,被稱作「迄今為止最大的AI芯片。其內部集成了90萬個計算核心、44GB片上內存和21PB的內存帶寬,總面積達46225平方毫米,是英偉達B200的56倍。

其性能同樣不容小覷,WSE-3包含4萬億個晶體管,相比B200擁有250倍的片上內存容量和2625倍的內存帶寬。

▌片上存儲

Cerebras的芯片設計思路是,將所有計算與存儲資源整合於一塊巨型芯片之上,以此破解數據搬運過程中耗時耗能的瓶頸。

具體而言,其採用靜態隨機存取存儲器(SRAM),通過將數據直接存儲在芯片上(即片上存儲),從而減少數據在芯片與外部存儲硬件之間來回傳輸的需求,而這一數據搬運過程正是英偉達等系統的潛在瓶頸之一。

資料顯示,在SRAM中每個存儲單元需4-6個晶體管組成觸發器結構,只要持續供電,觸發器就能穩定保持數據狀態,無需額外的刷新操作。基於此,SRAM讀寫速度極快,訪問時間僅約10納秒甚至更低,訪問速度遠超DRAM。

Cerebras的WSE-3被部署在其CS-3系統中,多個多個CS-3系統連接起來可形成Cerebras AI超級計算機,作為單個邏輯計算機進行大規模訓練和推理。據報道,OpenAI有望在2026至2028年把750MW規模的Cerebras芯片集成到其AI推理計算資源庫中。

廣發證券指出,SRAM架構已進入主流視野。根據Groq官網,其LPU單芯片內集成約230MB片上SRAM,存儲帶寬高達80 TB/s。根據Artificial Analysis的獨立基準測試,Groq LPU芯片在不同上下文長度下均能維持穩定推理速度,達275-276token/s,顯著優於其他推理平台。

從行業層面來看,3D堆疊方案有望為片上SRAM打開應用空間。

東方證券表示,片上SRAM存在工藝縮放比邏輯電路慢等問題,導致在單枚芯片上SRAM佔用的面積較大、成本提升。基於此,部分投資者認為SRAM架構難以成為AI芯片內存的主要方案。

該機構認為,SRAM 3D堆疊方案可通過垂直堆疊存儲單元的方法來提升密度以規避傳統SRAM容量受面積密度限制的問題,可能在未來拓展應用。展望未來,若AI推理中需要實現更高容量的SRAM,3D堆疊方案有望拓展應用。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10