微軟「Maia 200」強化ASIC崛起敘事 高速銅纜、DCI與光互連站上自研AI芯片風口

智通財經網
昨天

智通財經APP獲悉,歐洲金融巨頭法國巴黎銀行(BNP Paribas)周二發布研報稱,隨着微軟(MSFT.US)升級換代後的第二代自研人工智能芯片(AI芯片)「Maia 200」橫空出世,且這款自研AI芯片引爆新一輪AI算力產業鏈投資狂潮,聚焦於大型AI數據中心定製化AI芯片(即 AI ASIC芯片)的ASIC領軍者們——例如美國芯片設計巨頭邁威爾(MRVL.US)及其最大競爭對手博通公司(AVGO.US)有望最大程度受益這股投資狂潮的算力領軍者。

法巴銀行的分析師們在研報中強調微軟引領的雲計算巨頭們自研AI芯片趨勢可謂大勢所驅,未來ASIC與英偉達AI GPU算力集羣之間的AI算力基礎設施市場份額有可能從當前的1:9/2:8大幅抬升至接近對等。

資深分析師卡爾·阿克曼(Karl Ackerman)領導的法巴銀行分析師團隊表示,在自研AI芯片趨勢觸發的新一輪A算力投資狂潮中,除了上述兩大AI ASIC領軍者們,其次則是數據中心高速互連(DCI)、高速銅纜以及數據中心光互連領軍者們也有望大幅受益於新一輪AI算力投資狂潮。

從更深層次的角度洞察整個AI算力產業鏈體系,不難發現AI ASIC、DCI、高速銅纜以及數據中心光互連,可謂同時受益於微軟、谷歌以及亞馬遜雲計算巨頭們主導的AI ASIC超級大勢以及英偉達/AMD主導的AI GPU算力基礎設施體系。無論是谷歌無比龐大的TPU AI算力集羣(TPU也走的是AI ASIC技術路線),抑或是谷歌、OpenAI、微軟等AI巨頭們仍然在大舉購置的海量英偉達AI GPU算力集羣,均離不開數據中心高速互連(DCI)、高速銅纜以及數據中心光互連領軍者們。

此外,拋開GPU與ASIC這兩大路線,無論是英偉達主導的「InfiniBand + Spectrum-X/以太網」高性能網絡基礎架構,還是谷歌主導的「OCS(即Optical Circuit Switching,光路交換)」高性能網絡基礎架構背後都離不開高速銅纜、數據中心高速互連(DCI)與光互連設備供應商們。也就是說,無論是「谷歌主導的AI ASIC算力鏈」(TPU/OCS)還是「OpenAI 算力鏈」(英偉達 IB/以太網),最終都會在同一組「硬約束」上會師——數據中心高速互連(DCI)、數據中心光互連、高速銅纜以及數據存儲底座(企業級存儲/容量介質/內存測試)。

谷歌在11月下旬重磅推出Gemini3 AI應用生態之後,這一最前沿AI應用軟件隨即風靡全球,推動谷歌AI算力需求瞬間激增。Gemini3 系列產品一經發布即帶來無比龐大的AI token處理量,迫使谷歌大幅調低Gemini 3 Pro與Nano Banana Pro的免費訪問量,對Pro訂閱用戶也實施暫時限制,疊加韓國近期貿易出口數據顯示SK海力士與三星電子HBM存儲系統以及企業級SSD需求持續強勁,進一步驗證了華爾街所高呼的「AI熱潮仍然處於算力基礎設施供不應求的早期建設階段」。

在華爾街巨頭摩根士丹利、花旗、Loop Capital以及Wedbush看來,以AI算力硬件為核心的全球人工智能基礎設施投資浪潮遠遠未完結,現在僅僅處於開端,在前所未有的「AI推理端算力需求風暴」推動之下,持續至2030年的這一輪全球整體AI基礎設施投資浪潮規模有望高達3萬億至4萬億美元。

隨着AI推理狂潮席捲全球,屬於AI ASIC的黃金時代到來

類似「星際之門」的超大規模AI數據中心建設成本高昂,因此科技巨頭們愈發要求AI算力系統趨於經濟性,以及電力約束之下,科技巨頭力爭把「單位Token成本、單位瓦特產出」做到極致,屬於AI ASIC技術路線的繁榮盛世可謂已經到來。

毫無疑問的是,經濟性與電力層面的重大約束,迫使微軟、亞馬遜、谷歌以及Facebook母公司Meta都在推AI ASIC技術路線的雲計算內部系統自研AI芯片,核心目的都是為了AI算力集羣更具性價比與能效比。

微軟把 Maia 200的定位直接寫成「顯著改善AI token generation的經濟性」,並多次強調performance per dollar;AWS 也把 Trainium3 的目標寫成「best token economics」,並用能效/性價比作為賣點;谷歌雲計算平台則將Ironwood定義為「人工智能推理時代」的專用 TPU(TPU也屬於AI ASIC技術路線),強調能效與大規模推理服務。

隨着DeepSeek徹底掀起AI訓練與推理層面的「效率革命」,推動未來AI大模型開發向「低成本」與「高性能」兩大核心聚焦,相比於英偉達AI GPU路線更具性價比優勢的AI ASIC在雲端AI推理算力需求猛增的背景之下,邁入比2023-2025年期間AI熱潮時期更加強勁的需求擴張軌跡,未來谷歌、OpenAI以及Meta等大客戶有望持續斥巨資攜手博通開發AI ASIC芯片。

法巴銀行分析師團隊表示,雖然邁威爾以及博通不太可能成為微軟自研Maia 200 AI芯片的芯片設計合作伙伴——法國巴黎銀行認為與微軟共同Maia 200 的獨家技術供應商可能是來自中國台灣的Global Unichip,類似於博通和谷歌共同開發TPU AI算力集羣的合作伙伴關係。但是法巴銀行認為,隨着微軟點燃新一輪AI算力投資熱潮,邁威爾與博通仍可能通過「ASIC絕對領軍者」身份標籤而前面受益於自研AI風潮引領的投資主題。

摩根士丹利近日發布的一份研報顯示,谷歌TPU AI芯片的實際產量在2027年和2028年將分別達到500萬和700萬塊,較該金融巨頭此前給出的預期可謂分別大舉上修67%、120%。而這一產量激增預期可能預示着谷歌將開啓TPU AI芯片的直接對外銷售。更具基本面衝擊力的是,大摩的這份研究報告測算每50萬片TPU外銷,便有望為谷歌帶來130億美元的額外營收以及高達0.40美元的每股收益。

市場研究機構Counterpoint Research在最新研報中預測,非AI GPU系列服務器的核心AI芯片——即AI ASIC陣營,在近期將經歷高速增長曲線,預計到2027年出貨數量將達到2024年的三倍,2028年則有望以1500餘萬顆的規模反超GPU。報告顯示,這一爆炸性增長的背後,是對谷歌TPU基礎設施的強勁需求、AWS Trainium集羣的持續擴展,以及Meta (MTIA) 和微軟 (Maia) 隨着其雲計算系統內部自研AI芯片產品組合的擴展而帶來的產能提升。

高速銅纜、數據中心高速互連(DCI)與光互連

法巴銀行在研報中列出的其他潛在受益者包括數據中心高速銅纜(DAC/AEC)領軍者安費諾(Amphenol,APH);Lumentum等數據中心光互連參與者們;Arista Networks(ANET.US)這一數據中心高速互連(DCI)領軍者們;以及如果使用有源高速銅纜(active electrical cables,即AEC),則可能還包括Credo Technologies(CRDO.US)和Astera Labs(ALAB.US)。

無論是英偉達主導的 InfiniBand / Spectrum-X 以太網高性能網絡,還是Alphabet旗下谷歌(Google) 在 Jupiter 架構中引入的 OCS(光路交換),最終都要落到「物理互連棧」——服務器/加速卡集羣之間互連到交換機之間的高速銅互連(短距)、機架/機房/樓宇尺度的光互連(中長距),以及在跨樓/跨園區/跨站點時由DCI 光傳輸/互聯把網絡與存儲域拉通。NVIDIA 自己對其以太網平台的定義就把交換機、網卡/SmartNIC、DPU 與線纜/收發器(LinkX)作為端到端組成部分,並明確列出從DAC 銅纜到AOC/多模/單模光的覆蓋範圍。

從「星際之門」等全球AI數據中心超級工程層面角度來看,更加精確的表述是:銅纜與光互聯各司其職。在超大規模 AI 集羣裏,「機架內/鄰近機架」的短距高速互連(例如交換機到服務器網卡)通常優先用 DAC/AEC(銅纜)來壓低延遲、功耗與成本;而當帶寬上到 400/800G 且距離拉長(跨機架/跨行/跨機房)時,鏈路預算和功耗會把方案推向 AOC/可插拔高速光模塊級別光互連設備,甚至更激進的硅光/CPO路線。

另一方面,Google 主導的OCS是在數據中心網絡架構層面把光路交換引入 Jupiter,以解決規模與演進中的佈線/容量問題——它本質上更「偏光」,但同樣離不開端口側的光電接口與高速佈線體系。

Lumentum 之所以是谷歌AI大爆發的最大贏家之一,主要是因為它正好做的是與谷歌TPU AI算力集羣深度捆綁的「高性能網絡底座系統」中的不可或缺光互連——即OCS(光路交換機)+ 高速光器件,TPU數量每多一層量級,它的出貨就跟着往上乘。在OpenAI鏈這一側,英偉達所主導的「InfiniBand 與以太網」深度捆綁ANET/CSCO/HPE公司的這類交換機與數據中心網絡系統,但並不是「排斥光互聯」,相反,英偉達「IB+以太網」成功把「銅的確定性 + 光的長距離/高帶寬密度」打包成標準化互連體系。

分析師阿克曼等人在致客戶們的研究報告中寫道:「我們認為,Maia 200機架級別AI算力基礎設施系統將包含12個大型計算型trays、4台Tier-1以太網scale-up交換機、6個CPU頭節點(CPU head nodes)、2台用於前端網絡的機架頂部(ToR)以太網交換機,以及1台帶外管理交換機(out-of-band management switch)。」

阿克曼等分析師補充道:「對我們來說最有意思的是,Maia 200可能不會使用後端(backend)的scale-out網絡架構。」他還表示:「Maia 200將以6,144顆ASIC為單位,部署在小型scale-up集羣中,這些集羣將通過CPU頭節點和前端以太網交換機連接到‘外部世界’。鑑於Maia 200堪稱是為推理(inferencing)工作負載量身定製的,我們認為這種拓撲結構是合理的,因為海量的AI推理工作負載可能不需要由數十萬顆ASIC組成且需要同步協作的超級集羣(superclusters)。」

阿克曼領導的分析師團隊補充稱,微軟自研的Maia 200 AI算力基礎設施大規模部署預計將在2026年下半年開始加速放量,並將在明年進一步推進進一步滲透至微軟各大數據中心。

更多港股重磅資訊,下載智通財經app

更多港股及海外理財資訊,請點擊www.zhitongcaijing.com(搜索「智通財經」);欲加入智通港股投資羣,請加智通客服微信(ztcjkf)

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10