(以下內容從海通國際《中國電子:谷歌TPU切入Meta核心訓練池》研報附件原文摘錄)
事件
Meta已與Google簽署多年期協議,將以租用方式使用Google自研AI芯片TPU,用於訓練與開發新一代AI模型,合同規模達數十億美元。報道同時提到,Meta也在評估更進一步合作,包含最早明年在其自建數據中心採購並部署TPU的可能性。
點評
潛在下一步是走出公有云:Meta與Google討論過在Meta自建數據中心採購TPU,意味着合作可能從雲端租賃走向硬件落地。Meta正用更強的資本開支與更長的合同周期鎖定算力,除Google之外,其剛披露與AMD的五年期大單規模可達600億美元,並繼續與NVIDIA簽署當前及未來硬件採購安排。
對AI芯片格局如何影響:
這筆訂單的關鍵是頭部客戶把新增訓練預算拆分給更多路線。TPU在Meta側的進入,意味着AI芯片市場的邊際增量開始從單一GPU生態外溢到替代平台,行業進入多極競速階段。
租用TPU對應的是雲端算力交付與消耗計費。多年期鎖量合同更利於雲廠商提升集羣利用率與收入可見度,AI基礎設施逐步呈現類能源業務屬性,供給穩定性與交付周期成為核心競爭要素。
雲廠商的AI收入結構更清晰:Meta以多年期鎖量方式租用TPU,本質上提高了Google雲側AI算力的可見收入與利用率,有利於把AI資本開支轉化為更穩定的現金流敘事。與此同時,越多頭部客戶進入TPU生態,越能反向增強Google在軟件棧與工具鏈上的地位。
NVIDIA的挑戰在議價權被稀釋。短期看,訓練與推理的大盤仍將高度依賴GPU生態;但當頭部客戶(Meta這類超大買家)開始把新增算力的一部分轉向TPU/AMD等替代方案,GPU的邊際定價能力與供給稀缺溢價會被削弱。市場競爭將從轉向「誰的單位算力更便宜、交付更快、軟件更順」。
對先進封裝、HBM、多源拉動。無論GPU還是TPU,核心瓶頸仍是HBM供給、系統互連、機房電力與散熱。多極化並不會降低上游緊張程度,反而可能因為多家同時擴產」而讓產業鏈景氣持續更久,只是訂單在不同平台間重新分配。
我們認為:
算力確定性優先級繼續上升:超大模型競賽進入工程化階段,頭部公司需要的不是單次補貨,而是多年期可持續供給;長期合約會成為未來算力採購的主流形態。
Google正在把TPU從自用優勢變成對外武器:當TPU獲得Meta這類標杆客戶背書,Google雲側AI業務的增長邏輯會更順暢,市場對其AI投入回報的信心也更容易建立。
風險:AI發展不及預期;數據中心建設放緩;