【AI日報】美光推出256GB SOCAMM2;榮耀開源MagicAgent:六項核心測試成績領先GPT-5.2;百度智能雲千帆大模型杭州創新中心落戶上城

算力豹
03/04

算力豹AI日報

NEWSPAPER

近日AI算力看點一覽

►美光推出256GB SOCAMM2:加碼AI數據中心建設

榮耀開源MagicAgent:六項核心測試成績領先GPT-5.2

百度智能雲千帆大模型杭州創新中心落戶上城

01

美光推出256GB SOCAMM2:為AI數據中心帶來大容量低功耗內存新方案

美光今日宣佈交付業界首款容量達256GB的LPDRAM模塊SOCAMM2,基於單片32Gb LPDDR5X設計,目標直指大模型推理與高性能計算場景。這款模塊在功耗與體積上相比傳統RDIMM分別降約三分之二與三分之二,同時每個8通道CPU可配至2TB LPDRAM,旨在顯著擴大上下文窗口與KV緩存容量。

SOCAMM2把單片高密度LPDDR5X與模塊化封裝結合,使得機架密度與能效同時提升。美光披露的測試顯示,在長上下文的LLM推理(內部以Llama3 70B為例)中,首詞響應時間(TTFT)提高約2.3倍;在獨立CPU型HPC任務中,每瓦性能提升約3倍。模塊化設計還便於液冷部署與後期容量擴展,並且美光在JEDEC規範中發揮了引領作用以推動行業兼容與標準化。

(圖片來源:美光科技公司官網)

這項產品對系統架構有實操級影響。更大容量的低功耗內存能把更多參數或KV緩存留在CPU近側,減少對片外HBM或遠端存儲的頻繁調用,從而縮短延遲並降低總體擁有成本。美光表示已與主要AI硬件廠商協作以優化平台級表現,相關引用還提到與NVIDIA的協同設計,表明業界正在為下一代AI服務器探索以LPDDR為基礎的混合內存方案。

256GB SOCAMM2並非單一零件的迭代,而是對數據中心內存層級與成本模型的再思考——當大模型與長上下文成為常態,能把「更多內存、更低功耗、更小體積」組合起來的方案,將直接影響未來幾代AI服務器的形態與部署節奏。

02

榮耀開源MagicAgent:六項核心測試成績領先GPT-5.2

榮耀宣佈將智能體基礎模型MagicAgent面向全球開源。該模型被定義為YOYO智能體的核心引擎,專注任務規劃與執行編排,官方稱其是行業首個支持全場景泛化規劃與異構任務編排的基礎模型。

MagicAgent由榮耀聯合復旦大學共同研發,在六項核心性能測試中成績領先GPT-5.2。榮耀方面表示,模型重點強化多任務拆解、跨應用協同與複雜流程決策能力,使智能體在實際終端環境中具備更高執行穩定性與泛化水平。

(圖片來源:微博@MagicOS)

在此前舉行的世界移動通信大會期間,榮耀提出「Augmented Human Intelligence」理念,強調以人為中心構建兼具IQ與EQ的AI系統。MagicAgent作為底層能力框架,被視為推動終端智能體落地的重要基礎。

我們也在此前話題中關注過全新Robot Phone形態產品,通過可翻轉電動攝像頭與具身交互設計,探索AI終端的硬件創新方向。業內認為,MagicAgent的開源策略有助於擴展生態合作,加速智能體應用在移動終端與多場景設備中的部署。

03

百度智能雲千帆大模型杭州創新中心落戶上城

在杭州市爭創「全國人工智能創新發展第一城」推進大會上,上城區人民政府與百度旗下北京百度網訊科技有限公司簽署戰略合作協議,百度智能雲千帆大模型(杭州)產業創新中心正式落戶上城,成為全市12個重大簽約項目之一。

(圖片來源:上城區委宣傳部供圖)

該創新中心是百度智能雲在杭州設立的唯一產業創新中心,將以千帆大模型平台為核心底座,構建「一箇中心、三大平台」體系,涵蓋產業創新、產業賦能、人才培訓及產教融合等功能,計劃在三年內分階段推進場景落地與生態合作,複製上百個成熟應用方案,賦能區域數字經濟發展。

項目將入駐長睦人工智能產業園,助力上城區向以人工智能為引擎的中央創新區升級。當地提出打造全域具身智能先導區,通過深度學習訓練平台為傳統製造業提供軟硬一體化支撐,並探索知識產權向數字資產轉化路徑。

從初次接洽到正式簽約不足三個月,體現了地方政府與龍頭企業協同推進的效率。隨着創新中心落地,上城有望在大模型產業化、場景驗證及人才集聚方面形成示範效應,為杭州構建人工智能產業高地增添支點。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10