文|山自
當所有人都在討論 AI 數據中心的電力焦慮時,半導體行業專家、SemiAnalysis 創始人 Dylan Patel 在最新播客中拋出了一個顛覆性觀點:AI 算力擴張的核心瓶頸從來不是電力,而是先進半導體的製造能力。從 EUV 光刻機的產能桎梏,到 HBM 內存的資源爭奪戰,再到英偉達憑供應鏈佈局築起的護城河,AI 產業的競爭正從雲端的算法創新,徹底下沉到物理世界的製造硬實力。2026 年英偉達 GTC 大會的芯片戰略轉向,更是印證了這一趨勢 ——CPU 重回舞台中心,200 億美元押注 Groq 推理芯片技術,背後都是對製造瓶頸的精準應對。AI 的未來,終究要受限於硅片的生產速度。
電力焦慮是僞命題?製造纔是不可逾越的硬約束
在過去的 AI 算力討論中,「缺電」 始終是高頻詞。動輒數萬千瓦的 AI 數據中心電力需求,讓人們默認電力供應是制約算力擴張的第一要素。但 Dylan Patel 在播客中直言,這是對 AI 產業瓶頸的根本性誤判:電力是價格問題,而製造是可獲得性問題,二者有着本質區別。
電力的短缺並非不可解。高 AI 回報率驅動下,資本願意為算力支付昂貴的供電成本。如今頭部科技企業早已跳出公共電網的限制,採用分佈式發電、燃氣輪機 + 儲能備用系統,甚至是臨時高成本供電方案來保障數據中心運行。英偉達數據中心業務 75% 的年營收增長,足以支撐企業為電力支付溢價 —— 只要能拿到芯片,電力總有解決辦法。但先進半導體制造能力的缺失,是金錢無法在短期內填平的鴻溝。
Dylan Patel 強調,AI 算力的底層約束,最終落在了EUV 光刻機這類關鍵設備上。一台最先進的 ASML High-NA EUV 光刻機售價超過 3 億美元,生產周期長達 18 個月以上,全球年產能僅有數十台。這類設備的製造涉及精密光學、高端材料、超精密機械等數十個尖端領域,並非單純的資金投入就能快速擴產。更關鍵的是,EUV 光刻機的供應鏈高度集中,核心零部件的生產能力被少數企業壟斷,即便到 2030 年,其產能缺口仍將是半導體行業的主要瓶頸。
除了光刻機,先進晶圓製造和封裝技術的產能也同樣緊張。2026 年的 CPU 市場正遭遇《Futurum Group》所稱的 「安靜的供應危機」,AMD、英特爾已向中國客戶發出供應短缺預警,CPU 交付周期延長至 6 個月,價格漲幅超 10%。芯片分析師 Ben Bajarin 的一句話道破本質:「晶圓不會長在樹上,我們不可能憑空多收穫 10% 的硅片,整個行業都面臨產能擠壓。」 這種製造能力的短缺,並非某一家企業的問題,而是全球半導體產業的系統性瓶頸。
AI 產業的發展,終究要回歸物理世界的基本規律。從邏輯芯片到存儲芯片,從先進製程到封裝測試,每一個環節的製造能力,都決定了算力擴張的速度。當算法創新的速度遠超硬件製造的速度時,製造能力自然成為了 AI 算力的真正天花板。
HBM 引發的全球製造資源零和博弈
如果說 EUV 光刻機是 AI 製造瓶頸的 「地基問題」,那麼高帶寬內存(HBM)就是當下最緊迫的 「承重牆危機」。Dylan Patel 在播客中預測,未來 1-2 年,全球將迎來一場 「巨大的內存危機」,而這場危機的本質,是 AI 對製造資源的虹吸效應,引發了一場零和博弈。
HBM 是 AI 芯片的核心組件,其高帶寬、低功耗的特性完美適配 AI 大模型的訓練和推理需求。隨着 agentic AI(智能體 AI)的興起,AI 對數據處理的需求呈指數級增長,HBM 的需求也隨之暴增。但 HBM 的製造難度極高,良率偏低,產能擴張速度遠跟不上需求增長。目前全球 HBM 產能主要集中在三星、SK 海力士、美光三家企業,而頭部 AI 廠商為了保障算力供應,紛紛開啓了 HBM 產能鎖定模式。
英偉達就是這場產能爭奪戰的典型贏家。為了匹配其 GPU 的算力需求,英偉達提前與內存廠商簽訂了長期 HBM 供應協議,將大量產能收入囊中。這種 「頭部鎖定」 形成了正向循環:AI 廠商鎖定產能→內存廠商將更多資源投向 HBM 生產→HBM 產能進一步向頭部集中。但這一循環的背後,是對消費電子產業的資源擠壓 —— 手機、PC 等消費電子所需的普通 DRAM、NAND 閃存產能,正被不斷壓縮。
Dylan Patel 指出,AI 的增長本質上是通過搶佔其他行業的製造資源實現的。內存廠商出於利潤考量,會優先將產能分配給單價更高、利潤更豐厚的 HBM,而非消費電子內存。2025 年以來,消費電子行業已經出現了內存供應緊張的跡象,部分中低端手機、PC 產品因內存短缺被迫延遲發布。這種資源的重新分配,正在重塑全球半導體供應鏈的格局:AI 產業的繁榮,正以消費電子產業的產能犧牲為代價。
更值得警惕的是,這種資源虹吸效應正在向整個半導體制造環節蔓延。除了 HBM,AI 芯片所需的先進製程晶圓、特殊封裝材料,都在與其他行業爭奪有限的製造資源。當 AI 成為半導體產業最主要的需求來源時,整個行業的產能分配邏輯都將被改寫,而這種改寫,必然伴隨着行業間的利益博弈和資源衝突。
不是技術,是提前鎖定的製造產能
提到 AI 芯片,英偉達無疑是繞不開的名字。這家市值達 4.4 萬億美元的芯片巨頭,佔據了全球 AI GPU 市場的絕對主導地位。人們往往將其成功歸因於技術優勢 ——CUDA 生態的壁壘、GPU 的並行計算能力,但 Dylan Patel 在播客中揭開了英偉達真正的護城河:不是技術領先,而是對製造產能的提前鎖定。
半導體行業的競爭,遵循着 「先到先得」 的底層法則。英偉達深諳這一點,將現金流優先投入到供應鏈安全上,而非單純的研發。早在 2023 年,英偉達就通過財報披露,與台積電簽訂了先進製程的長期產能協議,鎖定了台積電 3nm、4nm 製程的大量產能,為其 GPU 和 CPU 的生產提供了保障。這種 「早鳥效應」,讓英偉達在產能短缺的大背景下,始終能保持穩定的芯片供應。2026 年英偉達數據中心業務單季度營收超 620 億美元,按年增長 75%,穩定的產能供應是其業績增長的核心支撐。
相比之下,谷歌、亞馬遜等科技巨頭即便擁有自研芯片的技術能力,也難逃產能擠壓的困境。谷歌的 TPU 雖然在 AI 訓練和推理中表現出色,但其產能受制於台積電的晶圓供應,無法快速擴張;亞馬遜的 Trainium 芯片同樣面臨產能不足的問題,難以滿足自身雲業務的算力需求。正如 Dylan Patel 所說,在製造能力成為瓶頸的時代,技術優勢如果沒有產能支撐,終究只是紙上談兵。
英偉達的產能佈局,不僅侷限於 GPU,更延伸到了整個 AI 算力生態。2021 年,英偉達發布首款數據中心 CPU Grace,2026 年第二代 CPU Vera 已進入量產階段,並與 Meta 達成多年合作協議,實現了 Grace CPU 的大規模獨立部署,計劃 2027 年將 Vera CPU 落地 Meta 數據中心。為了保障 CPU 產能,英偉達同樣提前鎖定了相關製造資源,其 「穩健的供應鏈」 讓其在 CPU 市場供應短缺的情況下,仍能實現 「零交付延遲」。
除了鎖定自有芯片的產能,英偉達還通過開放生態,將更多製造資源納入自己的體系。2025 年,英偉達開放 NVLink 網絡技術的第三方授權,與英特爾、高通、Arm 等企業達成合作,讓第三方 CPU 能更好地與英偉達 GPU 集成。同時,英偉達還支持 RISC-V 開放指令集,與 SiFive 達成協議,讓 RISC-V 芯片能通過 NVLink 與英偉達 GPU 連接。這種 「平台無關」 的戰略,本質上是通過生態整合,最大化利用全球有限的製造資源,進一步鞏固自己的算力優勢。
2025 年聖誕節前,英偉達斥資 200 億美元從 Groq 獲得芯片技術授權,並挖來其 CEO Jonathan Ross(谷歌初代 TPU 開發者),更是其應對製造瓶頸、完善算力生態的關鍵一步。Groq 的 LPU(語言處理單元)專為 AI 推理設計,採用片上 SRAM 內存,速度遠超傳統 GPU,且能與英偉達 GPU 形成互補。英偉達收購其技術,並非單純的技術升級,而是通過整合專用芯片技術,提升現有算力的利用效率,在製造產能有限的情況下,實現算力的 「內生增長」。
正如 Jensen Huang 在財報電話會議中所說,英偉達對 Groq 的佈局,與六年前收購 Mellanox 一脈相承 —— 通過整合細分領域的核心技術,延伸自己的架構,將製造資源的價值發揮到極致。2026 財年第四季度,英偉達網絡業務單季度營收達 110 億美元,與 AMD 整體營收相當,這正是 Mellanox 技術整合的成果。而 Groq 技術的加入,將讓英偉達在 AI 推理市場佔據更有利的位置,在製造產能有限的情況下,通過技術整合實現算力效率的提升。
CPU 迴歸:AI 算力生態的製造瓶頸新體現
2026 年英偉達 GTC 大會的一大看點,是CPU 的迴歸。在 GPU 稱霸 AI 算力市場多年後,英偉達宣佈將推出針對 agentic AI 優化的 CPU,甚至計劃展示純 CPU 機架。這一戰略轉向,看似是算力生態的完善,實則是 AI 製造瓶頸的又一重要體現。
agentic AI 的興起,讓 AI 算力的需求結構發生了根本性變化。與傳統的問答式 Chatbot 不同,agentic AI 是任務導向的智能體,需要協調多個智能體協同工作,移動大量數據,進行復雜的邏輯調度。這一過程不僅需要 GPU 的並行計算能力,更需要 CPU 的通用計算能力和串行處理能力 ——CPU 成為了 AI 工作流的 「調度中心」,負責協調 GPU、加速器等硬件,確保整個算力系統的高效運行。
英偉達 AI 基礎設施主管 Dion Harris 直言:「在 AI 和 agentic 工作流的擴張中,CPU 正成為新的瓶頸。」 而 CPU 的供應短缺,正是製造能力不足的直接體現。目前全球數據中心 CPU 市場由英特爾(60%)和 AMD(24.3%)主導,英偉達僅佔 6.2%,但隨着 agentic AI 的需求激增,CPU 的市場規模正快速擴大,美銀預測,2025 年至 2030 年,CPU 市場規模將從 270 億美元增長至 600 億美元,翻一番還多。
面對 CPU 的供應瓶頸,英偉達的應對策略依然是 「定製化 + 產能鎖定」。與英特爾、AMD 的通用型 CPU 不同,英偉達的 Grace 和 Vera CPU 專為 AI 工作流設計,放棄了核心數量的比拼(Grace CPU 為 72 核,遠低於英特爾、AMD 的 128 核),轉而提升單線程性能,確保 GPU 這一 「昂貴資源不會閒置等待」。這種定製化設計,讓英偉達 CPU 能更好地匹配 GPU 的算力需求,提升整個算力系統的效率,在製造產能有限的情況下,實現算力利用效率的最大化。
同時,英偉達的 CPU 基於 Arm 架構,而非英特爾、AMD 的 x86 架構。Arm 架構的低功耗特性更適合數據中心場景,且製造工藝更靈活,能更好地利用現有製造資源。英偉達選擇 Arm 架構,也是對製造瓶頸的適應 —— 在 x86 架構產能緊張的情況下,通過 Arm 架構實現 CPU 產能的快速擴張。
CPU 的迴歸,也反映了 AI 算力生態的複雜化。過去,AI 算力的核心是 GPU,而現在,AI 算力需要 GPU、CPU、加速器、網絡芯片等多種硬件的協同工作。每一種硬件的製造能力,都可能成為算力擴張的瓶頸。英偉達佈局 CPU,正是為了打通算力生態的各個環節,消除供應鏈中的短板,在製造能力有限的大背景下,構建一個高效、完整的算力生態。
從算法創新到製造能力的全鏈條競爭
Dylan Patel 在播客中總結道:AI 產業正在從虛擬概念向實體制造迴歸,最終決定行業上限的,將是物理世界的產能約束,而非數字世界的算法創新。這一判斷,不僅揭示了當下 AI 算力的瓶頸,更指明瞭未來 AI 產業的競爭方向 —— 從單一的技術競爭,轉向涵蓋製造、供應鏈、生態的全鏈條競爭。
在這場競爭中,製造能力將成為最核心的競爭力。掌握 EUV 光刻機、先進晶圓製造、高端封裝等核心製造技術的企業,將佔據產業鏈的頂端;能提前鎖定製造產能、構建穩定供應鏈的企業,將在算力競爭中佔據主動。正如英偉達的成功所證明的,在製造能力成為瓶頸的時代,供應鏈佈局的重要性,甚至超過了技術創新本身。
同時,AI 產業的資源爭奪戰還將繼續升級。HBM 對消費電子內存的擠壓,只是一個開始。未來,AI 還將與汽車、工業、航空航天等行業爭奪半導體制造資源,全球半導體供應鏈的格局將被不斷改寫。在這場零和博弈中,只有那些能為半導體產業帶來更高利潤、更大需求的行業,才能獲得更多的製造資源。而 AI,無疑是當下最具競爭力的那個。
電力問題雖然不再是核心瓶頸,但仍將是 AI 產業的重要考量。隨着算力的不斷擴張,AI 數據中心的電力需求仍將持續增長,資本驅動的非常規供電模式將成為主流。但與製造能力不同,電力問題的解決,更多依賴於企業的資金實力和運營能力,而非技術壁壘。在製造能力成為核心瓶頸的情況下,電力問題將成為篩選企業的 「門檻」,而非決定行業上限的 「天花板」。
對於中國 AI 產業而言,這場製造瓶頸帶來的挑戰更為嚴峻。目前,中國在 EUV 光刻機、先進製程晶圓製造、高端 HBM 內存等核心領域,仍與國際先進水平存在較大差距,製造能力的短缺,成為了中國 AI 算力擴張的最大制約。要突破這一瓶頸,需要從底層技術入手,加大對半導體制造設備、材料、工藝的研發投入,構建自主可控的半導體制造供應鏈。同時,也需要借鑑英偉達的經驗,通過生態整合和產能佈局,最大化利用現有製造資源,提升算力利用效率。
2026 年的 AI 產業,正站在一個關鍵的轉折點上。算法創新的紅利仍在釋放,但製造能力的約束已經顯現。當人們不再討論 「下一個大模型是什麼」,而是開始關注 「下一片硅片何時能生產出來」 時,AI 產業纔算真正走向成熟。畢竟,再先進的算法,終究要運行在實實在在的芯片上;再宏大的 AI 願景,終究要受限於物理世界的製造能力。
AI 的未來,缺的從來不是電,而是造芯片的能力。而這場製造能力的競賽,才啱啱開始。