AMD的野心與合作:一次公開透明的AI時代宣言

半導體產業報告
11/12

在AI基礎設施風起雲湧的時代,企業都在拼性能、卷生態、爭控制力。但少有人像AMD這樣,站上全球開源硬件舞臺,向整個行業坦陳路線圖、分享挑戰、甚至亮出技術底牌。

8月5日,OCP大會臺北站,AMD數據中心解決方案集團的架構與戰略總裁Robert Hormuth帶來了這樣一場「技術演講+戰略展示」融合的彙報。作為OCP董事會成員,他既是發言者,也像是在為整個開源硬件圈背書。

而這場分享背後的潛臺詞,是AMD押注「開放協作」的深度戰略轉向,也是對AI基礎設施未來格局的理性判斷。

AI改變了一切,但不是每個人都準備好了

在AMD的內部判斷裏,2025年之後的時代將由生成式AI主導,它將重塑「人類影響力」和「生產力工具」的基本形式。AI不再只是訓練模型,而是滲透到推理、控制、自治、協作之中,最終推動數據中心的架構從「節點」走向「集羣」,從「機架」走向「整體基礎設施」。

這一趨勢的爆發帶來的是全維度的指數級增長:

POD規模是過去的32倍

集羣規模增長100倍

網絡帶寬增加16倍

數據中心整體功耗達到原來的10倍

這種變化直接推高了行業對計算力、能效比、資本支出效率的三重要求。過去拼CPU/GPU單點性能的打法已經不夠,整個系統層、平臺層、生態層都要重構。

AI不是在替代人類,而是在重構計算的基本單元。

面對複雜,AMD選擇了「開放」

在這種全局複雜性中,AMD的核心戰略方向被明確為四個關鍵詞:

Leadership Compute Engines(計算引擎領先)

Open Ecosystem(開放生態)

Full Stack Solutions(全棧解決方案)

Platform Enablement(平臺支撐能力)

具體落地上,AMD正在通過全面參與OCP標準制定與產品發佈,把「開放」變成了一個實打實的商業護城河。

例如:

推出基於OCP DC-MHS標準的「Turin」平臺,未來還將上線「Venice」平臺。

積極參與OCP RAS(可靠性、可用性、可維護性)項目,標準化內存、GPU、CPU的故障管理能力。

在安全領域,AMD作為Caliptra項目發起成員,推動建立全行業統一的硬件身份驗證標準。

推動管理與調試標準(如OCP Open Boot、Liquid Cooling管理模塊)加速普及。

在冷卻系統上參與UQD v2標準、冷卻液兼容性測試等前沿課題。

這一系列動作背後的底層邏輯是:

「開放標準」不是放棄控制,而是爭取更大的平臺影響力與生態主導權。

AI時代真正的護城河,不是封閉,而是成為規則的制定者。

AMD也在重新定義「連接」

傳統的數據中心互聯方案已經難以滿足AI時代的通信密度與延遲要求。在這方面,AMD正通過兩個項目開闢新路徑:

UALink(Ultra Accelerator Link):面向內存語義、共享HBM的高帶寬互聯,優化Scale-Up架構。

Ultra Ethernet:專為AI和HPC場景設計,支持靈活包調度和擁塞控制,服務於Scale-Out架構。

這兩個方向各自適配不同的AI工作負載,但都強調「多廠商兼容性」「低延遲」「低功耗」和「高擴展性」。AMD明確表達了未來不會被PCIe和OAM等傳統互聯規範侷限,正在推動一種融合型的新連接形態:

「CEM’ish + OAM + Air & DLC + Scale-up + Scale-out + CPU connection…」

這不是對硬件規格的單點突破,而是整合「供電-冷卻-接口-協議」的一次系統性重構。

連接不只是速度,而是下一代算力體系的分發邏輯。

寫在最後:開放,不只是戰略選擇

Robert在演講中引用了彼得·克魯泡特金的那句名言:

「競爭是叢林法則,而合作是文明法則。」

這既是一次AI時代的戰略宣言,也是一場技術哲學的表態:在這個演進速度超過企業邊界的時代,只有開放的組織才能跟得上變化的速度。

AMD在OCP上的投入,不是情懷,而是對未來產業格局的冷靜判斷:

摩爾定律放緩,軟硬協同成為關鍵

AI基礎設施需求井噴,獨木難支

標準統一才能壓縮創新週期和成本

如果說競爭是市場的常態,那麼合作,或許是這個時代最大的「性價比」。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10