AI算力競賽的焦點,正在悄然從GPU轉向一個長期被忽視的角色——CPU。
隨着AI智能體和強化學習(RL)工作負載的爆發式增長,CPU在數據中心的戰略地位正經歷結構性重估。知名半導體分析機構SemiAnalysis首席分析師Dylan Patel在4月8日的一次深度訪談中直言,AI工作負載的範式正從簡單的文本生成向複雜的智能體和強化學習演進,CPU正面臨"極其嚴重的產能短缺"。
市場研究機構TrendForce的最新報告印證了這一判斷:當前AI數據中心的CPU與GPU配比約為1:4至1:8,而在智能體AI時代,這一比例預計將大幅收窄至1:1至1:2。
這一結構性轉變已在供需兩端引發連鎖反應。Intel和AMD已於2026年第一季度末對部分CPU產品線提價。與此同時,英偉達和Arm雙雙於2026年3月宣佈進軍服務器CPU市場——一家GPU巨頭與一家IP授權商在同一個月做出相同選擇,絕非巧合,而是市場信號的集中釋放。
智能體崛起,CPU從配角變瓶頸
在AI發展的早期階段,CPU的角色相當邊緣。Dylan Patel將其描述為:"負載很輕。你發一個字符串,它回一個字符串,簡單的推理,對CPU需求不大。"彼時,GPU憑藉其大規模並行矩陣運算能力主導了AI算力需求,CPU僅承擔向GPU壓縮和路由內存數據的輔助職能。
然而,以OpenAI o1為代表的新一代推理模型,以及隨之興起的AI智能體架構,從根本上改變了這一格局。與靜態大語言模型不同,智能體AI需要動態與環境交互——規劃任務、調用工具、在子智能體之間傳遞數據、評估任務是否完成。這一"編排層"(Orchestration)的全部協調工作,恰恰落在CPU肩上,使其成為典型的CPU密集型負載。
2025年11月發布的學術論文《A CPU-Centric Perspective on Agentic AI》進一步量化了這一壓力:在智能體AI場景中,CPU工具處理(包括Python解釋、網頁爬取、詞法摘要、數據庫檢索等)產生的延遲,可佔總延遲的高達90.6%;在大批量處理場景下,CPU動態能耗可達系統總動態能耗的44%。
Arm的測算則從容量角度揭示了需求缺口的量級:傳統AI數據中心每吉瓦(GW)約需3000萬顆CPU核心,而在智能體AI時代,這一需求將激增至1.2億顆——增幅達四倍。
Intel承壓,AMD乘勢擴張
CPU需求的結構性上升,首先在傳統x86市場引發了格局重塑。
Intel的Xeon處理器曾長期佔據數據中心CPU市場逾95%的份額。這一統治地位自2021年起開始鬆動——Intel 7製程的良率問題導致Xeon Sapphire Rapids發布延遲近兩年,為AMD的EPYC Milan打開了市場缺口。
2026年,Intel計劃推出兩款旗艦產品:採用Darkmont架構的Xeon 6+(Clearwater Forest),擁有288核/288線程,TDP約450W;以及採用Panther Cove-X架構的Xeon 7(Diamond Rapids),最高256核/256線程,TDP高達650W。兩款產品均基於Intel最先進的18A製程,並首次引入Foveros Direct混合鍵合技術。然而,TrendForce指出,受18A製程良率問題持續困擾,兩款產品的量產時間均可能推遲至2027年。
相比之下,AMD的節奏更為穩健。其2026年旗艦產品EPYC Venice將採用台積電N2製程、Zen 6架構,並搭載CoWoS-L與SoIC先進封裝,通過同步多線程(SMT)技術實現256核/512線程——線程數為當前市場最高。TrendForce預計,AMD將在2026年持續從Intel手中蠶食市場份額。
英偉達、Arm強勢入局,競爭格局重寫
傳統x86雙雄之外,一批非傳統玩家正以前所未有的速度湧入服務器CPU賽道,從根本上改寫競爭格局。
2026年3月,英偉達宣佈將Vera CPU作為獨立產品對外銷售,以滿足客戶對更靈活CPU:GPU配置的需求。Vera採用英偉達自研Olympus架構,基於台積電N3製程與CoWoS-R封裝,提供88核/176線程,並配備1.8 TB/s的NVLink-C2C互聯,可與英偉達GPU實現內存共享。首批合作伙伴涵蓋Alibaba、ByteDance、Cloudflare、CoreWeave、Oracle等。英偉達還推出了Vera CPU機架,單機架集成256顆CPU,合計22,528核/45,056線程,總內存達400 TB。
同月,Arm宣佈推出首款自研CPU產品Arm AGI CPU,終結了其35年純授權商的歷史定位。該產品基於台積電N3製程與Neoverse V3架構,提供136核/136線程,TDP為300W,支持DDR5-8800內存與PCIe Gen6。首批合作伙伴包括Meta、OpenAI、Cerebras、Cloudflare、SK Telecom等。Arm同步推出兩款機架配置:風冷版集成60顆AGI CPU(8,160核,約180 TB內存),液冷版則支持336顆CPU(45,696核,1 PB內存)。
主要雲服務商(CSP)同樣加速佈局自研CPU。AWS於2025年12月發布基於台積電N3製程的Graviton5(192核/192線程),並與自研Trainium 3 AI ASIC協同部署以降低AI計算成本;微軟於2025年11月推出Cobalt 200(N3製程,132核/132線程);谷歌則計劃於2026年推出Axion C4A.metal裸金屬版本及下一代Axion N4A,主打最高性價比。
IC後端設計服務商迎來增量機遇
非傳統玩家的大規模入場,正在為IC後端設計服務商創造可觀的增量業務。
TrendForce指出,AWS目前仍堅持自主完成CPU後端設計,而谷歌和微軟均已將CPU後端設計服務外包給創意電子(Global Unichip Corp.,GUC)。隨着更多CSP和新興CPU廠商加入市場,這一外包需求有望持續擴大。
TrendForce預計,2026年至2028年間,Broadcom、Marvell、GUC、Alchip、聯發科等ASIC設計服務商將陸續承接來自上述客戶的新增項目。對於尋找AI基礎設施投資新切口的市場參與者而言,這一環節或許正是GPU熱潮之外,尚未被充分定價的結構性機遇。