AI ASIC:博通份額將達60%,聯發科成長顯著,台積電成最大贏家

電子發燒友
昨天

電子發燒友報道(文/李彎彎)在人工智能芯片領域,專用集成電路(ASIC)正崛起。隨着AI算力需求爆發,ASIC憑藉定製化、高效能等優勢,在數據中心、AI推理等場景競爭力強勁。研究公司Counterpoint指出,AI芯片熱潮進入第二階段,ASIC與GPU競爭激烈,博通台積電有望成最大贏家。

Counterpoint預測,AI ASIC市場規模將從2024年的120億美元增至2027年的300億美元,年複合增長率34%。供應商格局中,博通預計2027年保持頂級AI服務器計算ASIC設計合作伙伴領先地位,市場份額擴大至60%;台積電幾乎拿下全球前十大數據中心及ASIC客戶晶圓製造訂單,份額近99%。

主要ASIC玩家及其產品博通

博通是ASIC領域領頭羊,與谷歌Meta等科技巨頭深度綁定。這些公司加速部署自研AI芯片,減少對通用GPU依賴,博通成為重要合作伙伴。

博通為谷歌設計的TPU採用脈動陣列架構,專注張量運算,能效比達英偉達H100的2 - 3倍,推理成本低30% - 40%。高盛分析師稱,TPU從v6迭代至v7,每個token成本下降70%。TPU v7於2025年發布,代號Ironwood,是首款專為AI推理設計的TPU,單芯片FP8算力達4614TFLOPS,配備192GB HBM3e顯存,能效比前代提升約2倍,支持構建最高9216芯片集羣,FP8峯值性能超42.5 exaFLOPS,已用於訓練Gemini 3模型。

此外,2025年9月,據知情人士報道,OpenAI計劃2026年與博通聯合生產自主研發的AI芯片。10月13日,二者宣佈達成戰略合作,將共同推出總容量達10GW的定製芯片。同時,12月,博通CEO確認Anthropic已累計向公司下達價值210億美元的AI系統訂單,將直接採購近100萬顆TPU v7p Ironwood AI芯片,本地部署在控制的數據中心,博通直接供應基於TPU v7p的機架級AI系統,繞過谷歌,不過谷歌預計仍可從交易中取得IP授權收入。

博通AI營收佔比近年顯著提升,2025財年AI相關收入較2024財年增長約74%。展望2026財年,分析師預測基於AI的半導體收入可能翻倍,博通2026年預定量大幅增至200K,按年增122%,主要受谷歌TPU外供拉動。

Marvell

Marvell在ASIC市場佔一定份額,但面臨挑戰。業內預測2027年為關鍵轉折點,屆時多家主要廠商將擴大ASIC生產規模。供應商格局中,博通主導,Marvell等企業爭奪第二。

Marvell曾與亞馬遜合作Trainium 2項目,卻因表現不佳失去Trainium 3設計合約,世芯參與開發,處境尷尬,此前被視為博通主要挑戰者,如今設計訂單增長受阻。Counterpoint估計,即使Marvell總出貨量持續增長,設計服務市場份額到2027年仍可能下滑至8%。

Marvell與微軟合作Maia芯片。微軟推出Maia 200芯片,標誌雲服務商和AI企業對ASIC競爭進入新階段。Maia 200是微軟2026年1月推出的第二代AI推理加速器,採用台積電3納米工藝,每顆超1400億個晶體管,適用於大規模AI工作負載。配備原生FP8/FP4張量核心、重新設計的內存系統,擁有216GB HBM3e內存、7TB/s帶寬及272MB片上SRAM,750W SoC熱設計功耗內,單顆芯片可提供超10PetaFLOPS的FP4性能和超5 PetaFLOPS的FP8性能,已部署於微軟美國中部數據中心,後續擴展至更多區域,為多個大模型提供支持,微軟超級智能團隊將利用其進行合成數據生成和強化學習,應用於Microsoft Foundry和Microsoft 365 Copilot服務,同時微軟開放MaiaSDK預覽,系統採用水冷設計方案。

微軟雲與人工智能執行副總裁斯科特·格思裏稱,Maia 200是微軟迄今部署的最高效推理系統,每美元性能比最新一代硬件提升30%,FP4性能是第三代Amazon Trainium的3倍。

聯發

聯發科在ASIC市場勢頭強勁,得益於谷歌雙規格ASIC策略,獲兩代大批量合約,被視為第二名有力競爭者。谷歌可觀出貨量提供助力,若贏得Meta下一代ASIC訂單,市場地位將增強。目前,谷歌TPU是雲端ASIC市場最大且最穩定的量產產品,或成唯一能與英偉達出貨規模匹敵的產品。

聯發科參與谷歌最新TPU v7 ASIC設計,準備深化合作助力下一代AI加速器量產。2025年12月15日消息,谷歌TPU需求爆發,將交給聯發科的下一代「TPU v7e」芯片訂單量翻倍,利用聯發科與台積電緊密合作關係,爭取稀缺產能,縮短上市時間,挑戰英偉達。

聯發科是谷歌引入的關鍵新合作伙伴,負責推理專用芯片設計與生產。TPU v7中,負責TPU v7e 「Zebrafish」版本,專注高效能推理任務;TPU v8中,負責推理芯片TPU v8e設計。

2026年2月5日,聯發科CEO蔡力行指出,2026年數據中心ASIC業務可突破10億美元,2027年上看數十億美元,未來ASIC佔整體營收比重有望達20%。此外,聯發科後續將投資CPO、定製化高帶寬存儲器、3.5D先進封裝等關鍵技術,重新調整資源佈局,將更多精力轉向AI專用ASIC和汽車芯片等新賽道。隨着AI算力需求爆發,聯發科在高速通信技術上有獨特優勢,對數據中心和AI ASIC至關重要。

世芯

世芯處於關鍵時刻,前景取決於2026年和2027年AWS下一代Trainium芯片生產進展及與英特爾合作。尚未在其他美國主要雲服務商客戶中取得顯著成功,計劃拓展中型客戶項目,若無法獲更大規模雲服務商合約,可能在市場份額競爭中落後。

亞馬遜Trainium芯片有成本優勢,推理成本較H100低30% - 40%,單位算力成本為H100的60%,推理吞吐量高25%。Trainium 3於2025年12月2日發布,採用3納米制程工藝,性能較第二代提升4.4倍,內存容量與能效分別增加4倍和40%,搭載新一代Neuron Fabric互聯技術,單台Trn3 UltraServer可集成144張芯片,總算力達362 FP8 PFLOPs,通過EC2 UltraClusters3.0架構,芯片集羣規模較上一代提升10倍,最高可擴展至100萬張芯片,已為Anthropic的「Project Rainier」項目提供算力支持,可降低AI模型訓練與推理成本達50%。

不過,Trainium3每枚芯片集成144GB HBM3e,較谷歌Ironwood TPU的192GB和英偉達BlackwellGB300的288GB有容量差距。2026年1月微軟發布的Maia 200搭載的高帶寬內存容量也超過Trainium3。亞馬遜AWS副總裁Ron Diamant表示無意取代英偉達,強調提供高性價比AI訓練解決方案,與行業趨勢相符。

ASIC與英偉達GPU的對比

英偉達GPU核心優勢在於大規模並行計算能力,支持矩陣乘法、卷積運算等AI任務。硬件層面,HBM內存帶寬高、GPGPU大規模流處理器陣列是核心武器,從H200、GB200到「Vera Rubin」均如此,性能提升與顯存帶寬、NVLink互連規模掛鉤。

然而,數據中心投入和能耗壓力加劇,行業尋求更高效且貼合自身需求的方案,ASIC優勢凸顯。以博通為谷歌設計的TPU為例,採用脈動陣列架構,專注張量運算,能效比達英偉達H100的2 - 3倍,推理成本低30% - 40%,定製芯片成本更具優勢。雖英偉達CUDA軟件是維護企業客戶的關鍵護城河,覆蓋全球95%以上AI開發者,但業內認為未來幾年市場將呈現ASIC與GPU並存局面。

寫在最後

ASIC市場快速發展,博通憑藉與科技巨頭合作和強大技術實力佔據領先地位;Marvell面臨挑戰,仍努力爭奪市場份額;聯發科勢頭強勁,通過與谷歌合作拓展業務;世芯處於關鍵發展期,未來取決於與AWS合作進展。ASIC與GPU競爭中,英偉達GPU有強大並行計算能力和廣泛軟件生態支持,但ASIC憑藉定製化、高效能和成本優勢,在數據中心和AI推理等領域逐漸佔據一席之地。未來,隨着技術進步和市場需求變化,ASIC市場格局可能改變,各玩家需不斷創新優化產品,以適應市場挑戰和機遇。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10