在當今數字化浪潮中,人工智能(AI)正以前所未有的速度重塑着我們的世界。從自動駕駛汽車到智能家居,從醫療診斷到金融服務,AI的應用場景無處不在。然而,隨着AI模型的複雜度和數據量呈指數級增長,傳統的計算架構和存儲技術正面臨着前所未有的挑戰。
傳統的數據中心及IT設備在處理海量數據時常常陷入瓶頸,而高昂的硬件成本也讓許多企業和機構望而卻步。在這樣的背景下,SOCAMM(Small Outline Compression Attached Memory Module)作爲一種創新的內存技術,如同一顆劃破夜空的流星,爲整個行業帶來了新的希望和變革。
目前,在英偉達1月份發佈個人AI超級計算機“Digits”後,聯想、惠普等全球頭部PC廠商以及三星電子、SK海力士,江波龍等廠商都積極跟進SOCAMM內存技術。今天我們就來聊聊爲何SOCAMM如此被重視?
▌01 .算力困局:買不起和買不到催生新AI內存
如今,AI大模型的參數規模正以每年10倍的速度膨脹。例如DeepSeek R1模型的671B版本全量參數已達720GB,訓練時需512GB以上內存支撐。傳統DDR5內存在AI計算的數據洪流面前愈發捉襟見肘——當處理器80%的時間用於等待數據搬運,算力利用率跌破50%成爲常態。
因此,HBM(High Bandwidth Memory)內存的角色變得愈發重要,特別是對於AI訓練任務。2025年初,HBM的需求呈現井噴式增,HBM3芯片現貨價較2024年初暴漲300%,單臺AI服務器的DRAM用量是傳統服務器的8倍。
但HBM並不是普通DRAM,它的價格早已到了一個令人咋舌的地步,在相同密度的情況下,HBM 的價格大約是DDR5的5倍,據瞭解,目前HBM成本在AI服務器成本中佔比排名第三,約佔9%,單機平均售價高達18000美元。
即便是如此昂貴的HBM,依舊處於供不應求的狀態,還在不斷漲價。TrendForce在今年5月表示,2025年HBM定價談判已於2024年第二季度開開啓,但由於DRAM整體產能有限,供應商已初步漲價5~10%以管理產能限制,影響範圍涵蓋HBM2e、HBM3與HBM3e。
而對於中國AI企業用戶來說,想要獲取搭載HBM和NVIDIA高端的AI解決方案更是難上加難。2025 年 1 月,美國發布新一輪禁令,涵蓋HBM2e、HBM3、HBM3e等尖端規格,基本封鎖了中國獲取最新 HBM 技術的渠道,同時加強供應鏈管控,限制使用美國技術的海外企業(如三星、SK 海力士)向中國供貨。
這個時候,SOCAMM內存憑藉其卓越的性能、能效和靈活性,正在成爲AI時代存儲領域的新寵。
▌02 .HBM與SOCAMM:極致帶寬與靈活擴容的互補雙擎
HBM 與 SOCAMM 並非簡單的“高低配”,而是在整個算力棧中扮演了分層內存的角色。

HBM與SOCAMM分別定位於“極致性能”與“靈活擴展”兩端:HBM通過3D DRAM 堆疊+2.5D 硅中介層封裝,把 1024-bit 超寬總線和 TB/s 級帶寬直接拉到 GPU旁邊,滿足 HPC、AI 訓練、高端圖形等對帶寬極度飢渴的場景;與焊在 GPU 旁邊、追求極致帶寬的 HBM 不同,SOCAMM通過 Nvlink-C2C 等高速總線直連 Grace CPU,用來給 CPU 側提供大容量、中等帶寬且低功耗的內存池。同時,SOCAMM 把高集成 LPDDR 做成可熱插拔的 CAMM2 模塊,以插槽取代傳統 GDDR 的板載焊死方式,優先解決散熱、容量彈性與系統成本問題,面向 AI 服務器、邊緣工作站等需要“中-高帶寬+可升級”的市場。二者形成互補:HBM 用固定式、高成本的封裝換極致帶寬,SOCAMM 用可替換、低成本的模塊換容量/功耗/設計彈性;當系統既要在覈心計算單元旁堆極限帶寬,又要在主板級留出後期擴容空間時,可將 HBM 用作近存/緩存,SOCAMM 用作主存或擴展池,從而在同一臺設備裏同時實現“帶寬天花板”與“容量天花板”的雙目標。
SOCAMM 像給 CPU 配的“移動倉庫”,GPU 的高速小竈(HBM)不動,CPU 的大糧倉(SOCAMM)隨用隨加。
▌03 .SOCAMM破局:從性能到架構的範式顛覆創新
SOCAMM最早是由英偉達主導、聯合三星、SK海力士和美光共同開發的技術,基於LPDDR5X DRAM,通過694個I/O端口的設計(遠超傳統LPCAMM的644個),將數據傳輸帶寬提升至傳統DDR5方案的2.5倍。
SOCAMM的出現,不僅僅是一項技術的創新,更是一場深刻的行業革命。它以一種全新的模塊化設計,徹底改變了傳統內存的使用方式。
在性能方面,SOCAMM的表現尤爲突出,得益於其底層創新設計,包括128-bit總線和近CPU佈局,這些設計優化了信號完整性,減少了信號傳輸延遲,從而顯著提升了整體性能。如下圖,SOCAMM數據傳輸速率可達8533Mbps,相比DDR5 RDIMM的6400Mbps,性能提升了約33%,可以滿足AI訓練和高性能計算中對數據吞吐量的極高要求。
在能效方面,SOCAMM同樣表現出色。其採用1.05V的低電壓供電,功耗僅爲DDR5 RDIMM的1/3。結合液冷技術,SOCAMM能夠在高密度部署的場景下有效降低功耗,這對於數據中心的運營成本控制和可持續發展具有重要意義。
不僅如此,SOCAMM還打破了傳統內存的物理形態,其尺寸僅爲90mm×14mm,相比DDR5 RDIMM的133.35×31.25mm,減小了約70%。這種超小尺寸設計使得SOCAMM能夠更靈活地適配各種緊湊型設備,如邊緣計算服務器和小型AI推理設備。能夠在有限的空間內實現更高的存儲容量和計算能力。
這些創新設計使得SOCAMM在性能、能效和空間利用方面都達到了新的高度,爲高性能計算和存儲領域帶來了全新的解決方案。
▌04 .產業重構:從PC到AI服務器到綠色數據中心
SOCAMM的出現,不僅推動了技術的革新,還催生了新的商業模式和產業鏈變革。各個廠商都在積極佈局,三星電子、SK海力士、江波龍等內存廠商以及PC廠商如聯想、惠普等都在積極佈局SOCAMM技術。除此之外,SOCAMM內存技術還適用於需要高性能內存支持的場景,如AI服務器、高性能計算、數據中心等。
隨着AI、大數據、雲計算等技術的快速發展,對高性能內存的需求日益增加,SOCAMM可能在以下幾個領域取得積極進展。
在AI服務器中,SOCAMM的高性能和高帶寬特性能夠完美滿足AI訓練和推理任務的需求。其能夠作爲CPU側的高性價比擴展方案,通過Nvlink-C2C直連CPU,提供大容量(單模塊達128GB)的中等帶寬存儲空間,與HBM形成完美互補。
在綠色數據中心的應用中,SOCAMM的低極致能效(功耗僅DDR5 RDIMM的1/3)與高帶寬特性使其成爲數據中心的理想選擇。其緊湊的尺寸和模塊化設計能夠有效提高數據中心的空間利用率,從而在有限的空間內實現更高的存儲容量和計算能力。

在邊緣計算場景中,SOCAMM的緊湊尺寸和低功耗特性使其能夠完美適配邊緣計算設備的需求。其14×90mm超小尺寸設計使其能夠輕鬆集成到各種緊湊型邊緣計算設備中,如小型服務器、智能網關和物聯網設備。運維人員可以在不中斷設備運行的情況下更換存儲模塊,從而降低維護成本和系統停機時間。
今年,產業巨頭們已聞風而動,美光正爲英偉達GB200/NVL平臺量產SOCAMM;三星、SK海力士紛紛加入戰局;戴爾、聯想等ODM廠商已啓動基於SOCAMM的服務器生產。憑藉僅爲HBM 1/4的成本優勢,SOCAMM在AI推理與邊緣計算領域的性價比定位異常清晰。據規劃,2025年僅美光產能即達80萬模塊,2026年三星/SK海力士將全面量產,第二代SOCAMM更將帶寬推至驚人的400GB/s。
在國內市場方面,據悉知名半導體存儲品牌企業江波龍在SOCAMM技術的研發和產業佈局方面具有獨特的優勢,並且已與頭部客戶聯合開展SOCAMM開發工作,相關產品已成功點亮。這款名爲SOCAMM的創新產品,正以其性能躍遷、靈活部署、能效革新三大突破,重新定義AI時代的服務器內存架構,併成爲支撐NVIDIA Grace Blackwell等頂級平臺的關鍵力量,值得國內用戶關注和期待。
▌05 .結語:開啓AI硬件的新紀元
SOCAMM技術的市場空間和潛力巨大。隨着人工智能、高性能計算和邊緣計算等領域的快速發展,對高性能、低功耗存儲解決方案的需求將持續增長。SOCAMM憑藉其卓越的技術優勢和廣泛的應用場景,有望在這些領域佔據重要市場份額。
SOCAMM不僅是一項技術創新,更是AI時代硬件範式的顛覆性重構。當英偉達將手指大小的內存模塊插入Digits超級計算機,人類或許正在見證馮·諾依曼架構誕生以來最深刻的內存革命。
這場變革的終點,或許不是某個技術參數的突破,而是一個萬物皆可實時智能進化的新紀元。隨着技術的不斷進步和生態的逐步完善,SOCAMM有望在數據中心、邊緣計算和個人AI設備等領域發揮更大的作用。它不僅將推動存儲技術的進一步發展,還將爲整個計算行業帶來新的機遇和變革。
原文標題 : 新AI內存,互補HBM:SOCAMM爲何將引爆算力市場?