微軟正式推出最新一代自研 AI 加速器Microsoft Azure Maia 200。
這是微軟Maia GPU 系列的第二代產品,定位為服務器級 AI 推理芯片,目標十分明確:在推理性能、能效和成本控制上,全面對標並超越亞馬遜和谷歌的定製芯片方案。
微軟將 Maia 200 形容為其迄今部署的「最高效推理系統」。官方宣傳幾乎圍繞兩點展開:性能大幅提升,以及在高算力下儘可能降低能耗,減少碳排放。
微軟稱,Maia 200 的性價比相比上一代 Maia 100 提升了約 30%。考慮到新一代芯片TDP 提高了 50%,這一能效與成本優化,確實稱得上進步明顯。
從製程和硬件規格來看,Maia 200 採用台積電 3nm 工藝,集成1400 億個晶體管,屬於當前最先進的一檔水平。
在算力方面,微軟給出的數據相當激進:
FP4 算力最高可達 10 PFLOPS,
是亞馬遜Trainium3 的 3 倍。
內存配置同樣堆滿:
板載216GB HBM3e,
內存帶寬高達 7TB/s,
另配272MB 片上 SRAM,以降低訪存延遲、提升執行效率。
從原始算力指標來看,Maia 200 不僅明顯優於亞馬遜的自研芯片,與英偉達頂級 GPU 相比也頗具競爭力。
不過,直接橫向對比意義並不大:一方面,Maia 200 並不對外銷售,只在 Azure 內部部署;另一方面,英偉達 Blackwell B300 Ultra 的定位和功耗等級明顯更高,同時還擁有無可比擬的軟件生態優勢。
相比單純堆算力,Maia 200 更突出的賣點其實是能效比。
其TDP 為 750W,幾乎只有英偉達 B300 Ultra 的一半(約 1400W)。
而且按照 Maia 100 的經驗,新一代芯片的實際運行功耗很可能低於理論 TDP:Maia 100 的設計功耗為 700W,但實際運行通常被限制在500W 左右。
在當前外界對AI 能耗和碳排放高度關注的背景下,這一優勢極具吸引力,也符合微軟近年來在「綠色算力」上的戰略方向。
在產品定位上,Maia 200明顯是為 AI 推理場景量身定製,而非通用訓練型加速器。
其架構重點優化 FP4 和 FP8 運算,特別適合大模型推理階段對低精度、高吞吐的需求,而不追求極端複雜計算能力。
微軟將大量研發資源投入到了內存層級架構設計中。Maia 200 採用272MB 高效 SRAM,並構建了多層集羣級 SRAM(CSRAM)+ Tile 級 SRAM(TSRAM)的混合結構,使數據在 HBM 與 SRAM 之間實現更智能的調度,從而:
降低訪問延遲
提升內存利用率
優化整機能效
平衡各計算單元負載
這也解釋了為什麼 Maia 200 在推理效率與能耗控制上表現突出。
由於微軟公布的Maia 200 與 Maia 100 性能指標幾乎沒有重疊維度,因此很難精確量化代際提升幅度。目前可以確認的是:
運行溫度更高(功耗提升所致)
性價比提升約 30%
結合 3nm 製程、HBM3e 升級和內存架構重構來看,Maia 200 的進化方向十分清晰:圍繞推理場景,追求更低成本、更高能效、更好部署密度。
馬斯克一開口,股市先衝了
暴跌11%,英特爾太令人失望了
1510億美元,英特爾拿下美「硬核訂單」