在AI基礎設施風起雲湧的時代,企業都在拼性能、卷生態、爭控制力。但少有人像AMD這樣,站上全球開源硬件舞臺,向整個行業坦陳路線圖、分享挑戰、甚至亮出技術底牌。
8月5日,OCP大會臺北站,AMD數據中心解決方案集團的架構與戰略總裁Robert Hormuth帶來了這樣一場「技術演講+戰略展示」融合的彙報。作為OCP董事會成員,他既是發言者,也像是在為整個開源硬件圈背書。
而這場分享背後的潛臺詞,是AMD押注「開放協作」的深度戰略轉向,也是對AI基礎設施未來格局的理性判斷。
AI改變了一切,但不是每個人都準備好了
在AMD的內部判斷裏,2025年之後的時代將由生成式AI主導,它將重塑「人類影響力」和「生產力工具」的基本形式。AI不再只是訓練模型,而是滲透到推理、控制、自治、協作之中,最終推動數據中心的架構從「節點」走向「集羣」,從「機架」走向「整體基礎設施」。
這一趨勢的爆發帶來的是全維度的指數級增長:
POD規模是過去的32倍
集羣規模增長100倍
網絡帶寬增加16倍
數據中心整體功耗達到原來的10倍
這種變化直接推高了行業對計算力、能效比、資本支出效率的三重要求。過去拼CPU/GPU單點性能的打法已經不夠,整個系統層、平臺層、生態層都要重構。
AI不是在替代人類,而是在重構計算的基本單元。
面對複雜,AMD選擇了「開放」
在這種全局複雜性中,AMD的核心戰略方向被明確為四個關鍵詞:
Leadership Compute Engines(計算引擎領先)
Open Ecosystem(開放生態)
Full Stack Solutions(全棧解決方案)
Platform Enablement(平臺支撐能力)
具體落地上,AMD正在通過全面參與OCP標準制定與產品發佈,把「開放」變成了一個實打實的商業護城河。
例如:
推出基於OCP DC-MHS標準的「Turin」平臺,未來還將上線「Venice」平臺。
積極參與OCP RAS(可靠性、可用性、可維護性)項目,標準化內存、GPU、CPU的故障管理能力。
在安全領域,AMD作為Caliptra項目發起成員,推動建立全行業統一的硬件身份驗證標準。
推動管理與調試標準(如OCP Open Boot、Liquid Cooling管理模塊)加速普及。
在冷卻系統上參與UQD v2標準、冷卻液兼容性測試等前沿課題。
這一系列動作背後的底層邏輯是:
「開放標準」不是放棄控制,而是爭取更大的平臺影響力與生態主導權。
AI時代真正的護城河,不是封閉,而是成為規則的制定者。
AMD也在重新定義「連接」
傳統的數據中心互聯方案已經難以滿足AI時代的通信密度與延遲要求。在這方面,AMD正通過兩個項目開闢新路徑:
UALink(Ultra Accelerator Link):面向內存語義、共享HBM的高帶寬互聯,優化Scale-Up架構。
Ultra Ethernet:專為AI和HPC場景設計,支持靈活包調度和擁塞控制,服務於Scale-Out架構。
這兩個方向各自適配不同的AI工作負載,但都強調「多廠商兼容性」「低延遲」「低功耗」和「高擴展性」。AMD明確表達了未來不會被PCIe和OAM等傳統互聯規範侷限,正在推動一種融合型的新連接形態:
「CEM’ish + OAM + Air & DLC + Scale-up + Scale-out + CPU connection…」
這不是對硬件規格的單點突破,而是整合「供電-冷卻-接口-協議」的一次系統性重構。
連接不只是速度,而是下一代算力體系的分發邏輯。
寫在最後:開放,不只是戰略選擇
Robert在演講中引用了彼得·克魯泡特金的那句名言:
「競爭是叢林法則,而合作是文明法則。」
這既是一次AI時代的戰略宣言,也是一場技術哲學的表態:在這個演進速度超過企業邊界的時代,只有開放的組織才能跟得上變化的速度。
AMD在OCP上的投入,不是情懷,而是對未來產業格局的冷靜判斷:
摩爾定律放緩,軟硬協同成為關鍵
AI基礎設施需求井噴,獨木難支
標準統一才能壓縮創新週期和成本
如果說競爭是市場的常態,那麼合作,或許是這個時代最大的「性價比」。