博通電話會:2027年AI芯片營收將破1000億美元,AI不會顛覆基礎設施軟件

華爾街見聞
8小時前

受AI芯片業務翻倍增長的強力引擎驅動,博通2026財年第一季度營收創下歷史新高,並預計在2027年實現AI芯片收入突破1000億美元的驚人里程碑。

隨着全球生成式AI競賽進入白熱化,底層算力基礎設施的頭號玩家正在交出遠超市場預期的答卷。博通在隨後的2026財年第一季度財報電話會議上拋出了一個宏大的指引:「我們現在有信心在2027年實現僅芯片業務的AI收入超過1000億美元。」

整體來看,博通正在把「AI 定製芯片+以太網網絡」做成一個規模化、可複製、長期鎖定的基礎設施生意,並且已經提前鎖定到 2028 年。以下是電話會要點:

2027年AI芯片收入>1000億美元,6家長期戰略客戶

HockTan在本次電話會上做了極具衝擊力的指引:2027年,僅芯片(XPU+交換芯片+DSP)AI收入將超過1000億美元,注意幾個關鍵點:僅芯片、不含機架、不含系統集成。

分析師追問後他確認,2027年預計接近10吉瓦裝機容量。而按照行業單吉瓦價值推算:1吉瓦≈200億美元左右內容價值。這意味着:10吉瓦≈2000億美元潛在規模,博通取其中一部分,>1000億並不誇張。

這是本次電話會的另一核心變化——客戶數量首次明確為6家。已公開或可推斷客戶包括:Google(TPU)、Meta(MTIA)、OpenAI、Anthropic、另外兩家未公開LLM平台客戶。其中,Anthropic對TPU計算能力的需求預計將在2027年激增至超過3吉瓦,而OpenAI也將在同年大規模部署超過1吉瓦的算力。

關鍵的是,全部是LLM平台級公司,並且都在構建自己的定製XPU,而且都是多代路線圖合作,合作2–4年滾動規劃。管理層強調這不是短期交易,而是多代戰略綁定。

XPU或將持續侵蝕GPU

Hock在Q&A裏表達得非常明確:GPU是通用密集矩陣乘法架構,XPU可針對MoE、推理、預填充、解碼等負載定製。

隨着模型演進,定製化的XPU最終將成為客戶的首選,因為它允許為特定的工作負載量身定製架構,提供更低的成本和功耗。

博通觀察到,技術成熟的客戶正在走向每年同時開發兩款專用芯片的路線——一款專門用於模型訓練,另一款專門針對推理進行產品化。

這意味着定製芯片的需求不是一次性替代GPU,而是長期雙線擴張。

網絡是被嚴重低估的增長引擎

Q3問答中,管理層大幅強調網絡。當前結構AI收入中,網絡佔比Q1為33%,Q2預計將達到40%,未來預計區間長期33%–40%

網絡增長邏輯來自兩個層面:

在橫向擴展(Scale-out)方面:以太網是首選方案。博通率先上市的100Tbps Tomahawk 6交換機面臨着巨大的市場需求,公司計劃在2027年推出性能翻倍的Tomahawk 7。

在縱向擴展(Scale-up)方面:在機架內的集羣域中,應該儘可能長時間地使用直接附加銅纜(DAC)來直接連接XPU或GPU,因為與光學方案相比,銅纜具有最低的延遲、最低的功耗和成本優勢。目前博通的技術已經能通過銅纜驅動400G的傳輸速率。

這意味着博通在交換芯片、DSP、以太網scale-up,三個維度同時獲益。

供應鏈產能已鎖定至2028年

依託與客戶深度的多年期合作,博通已經提前鎖定了2026年至2028年的關鍵組件產能(包括前沿晶圓、高帶寬內存、基板等),成為了業內最早鎖定2028年產能的公司之一。

在被問及為何能把供應判斷延伸到2028年時,Tan說:「我們很早就掌握了光罩的鎖定技術……那我們絕對是最早一批掌握這項技術的。」並稱這得益於「早期的預期」與「非常優秀的合作伙伴」。

半導體解決方案事業部總裁Charlie Kawwas則補充,客戶會分享未來2-4年的預期,促使公司提前鎖定產能與技術投入。分析師追問「以目前的供應情況來看,2028年你能實現增長嗎?」Kawwas回答:「是的。」

備貨端,CFO Kirsten Spears披露:「由於我們持續採購零部件以滿足強勁的人工智能需求,第一季度末庫存為30億美元。」庫存周轉天數升至68天(上一季度為58天),並指出主要原因是「我們預期人工智能半導體業務將加速增長」。

基礎設施軟件不會被AI替代,反而受益

除硬件外,博通也在電話會上強調軟件業務的「確定性」。

Tan表示:「我們基礎設施軟件不會受到人工智能的衝擊。」他稱VMware雲基礎架構(VCF)是數據中心「核心軟件層」,並強調其長期價值:「作為人工智能軟件和物理芯片(硅)之間的永久抽象層,VCF不可被取代或替代。」

公司披露,第一財季VMware收入按年增長13%,基礎設施軟件「訂單量持續強勁,第一季度合同總額超過92億美元」,年度經常性收入(ARR)按年增長19%。Tan進一步稱:「我們相信,生成式人工智能和智能體人工智能的增長將會增加對VMware的需求,而不是減少。」

以下是2026年第一季度財報電話會議原文

操作員:

歡迎參加博通公司 2026 財年第一季度財務業績電話會議。現在,我將把電話交給博通公司投資者關係主管 Ji Yoo 先生,請他致開幕詞並進行介紹。

投資者關係負責人 Ji Yoo:

謝謝接線員,大家下午好。今天參加電話會議的有:總裁兼首席執行官 Hock Tan、首席財務官 Kirsten Spears、半導體解決方案事業部總裁 Charlie Kawwas 以及基礎設施軟件事業部總裁 Ram Velaga。博通在收盤後發布了新聞稿和財務報表,介紹了我們 2026 財年第一季度的財務業績。如果您沒有收到,可以從博通官網 broadcom.com 的「投資者關係」欄目獲取相關信息。本次電話會議正在進行網絡直播,您也可以通過博通官網「投資者關係」欄目收聽為期一年的錄音回放。在準備好的發言環節,Hock 和 Kirsten 將詳細介紹我們 2026 財年第一季度的業績、對 2026 財年第二季度的業績展望,以及對當前商業環境的評論。發言結束後,我們將回答各位的問題。請參閱我們今天發布的新聞稿以及我們近期向美國證券交易委員會提交的文件,了解可能導致我們實際業績與本次電話會議中作出的前瞻性陳述存在重大差異的具體風險因素。除美國通用會計準則(GAAP)報告外,博通還以非 GAAP 準則報告某些財務指標。GAAP 和非 GAAP 指標的調節表包含在今天新聞稿的附件表格中。今天電話會議中的發言將主要涉及我們的非 GAAP 財務業績。現在我將把電話會議交給霍克先生。

總裁兼首席執行官 Hock E. Tan:

謝謝 Ji,也感謝各位今天蒞臨。在 2026 財年第一季度,我們的總營收達到創紀錄的 193 億美元,按年增長 29%,超出預期,這主要得益於人工智能半導體業務超出預期的增長。強勁的營收增長轉化為卓越的盈利能力,第一季度合併調整後 EBITDA 達到創紀錄的 131 億美元,佔營收的 68%。這些數據表明,我們的規模優勢持續推動着顯著的運營槓桿效應。

我們預計,隨着我們定製的 AI XPU 在五家客戶中進入下一階段的部署,這一增長勢頭將加速。展望 2026 年第二季度,我們預計合併營收約為 220 億美元,按年增長 47%。

現在讓我更詳細地介紹一下我們的半導體業務。第一季度,營收創下 125 億美元的新紀錄,按年增長 52%。這一強勁增長主要得益於人工智能半導體營收的強勁增長,該業務按年增長 106%至 84 億美元,遠超我們的預期。第二季度,這一增長勢頭將進一步增強,我們預計半導體營收將達到 148 億美元,按年增長 76%。推動這一增長的主要動力是人工智能營收,該業務的營收將大幅增長,按年增長 140%至 107 億美元。

我們的客戶加速器業務在第一季度按年增長了 140%,這一增長勢頭在第二季度得以延續。我們所有五家客戶的定製 AI 加速器內存使用情況都進展順利。對於谷歌而言,由於對第七代 Ironwood TPU 的強勁需求,我們在 2026 年繼續保持增長勢頭。我們預計,在 2027 年及以後,下一代 TPU 的需求將更加強勁。

就裝機規模計算而言,我們在 2026 年取得了非常好的開端,預計 TPU 計算能力將達到 1 吉瓦。而到了 2027 年,這一需求預計將超過 3 吉瓦。最後,我想說的是,我們的 XPU 產品線遠不止 TPU。與近期分析師的報告相反,Meta 的定製加速器 MTIA 路線圖仍在穩步推進。我們現在已經開始發貨。事實上,對於下一代 XPU,我們將在 2027 年及以後將其計算能力擴展到數吉瓦。再說說第四和第五位客戶,我們預計今年的出貨量將非常強勁,並且預計 2027 年將翻一番以上。我們現在還有第六位客戶。我們預計 OpenAI 將在 2027 年大規模部署其第一代 XPU,計算能力將超過 1 吉瓦。

我想藉此機會強調一下,我們與這六家客戶在開發 AI XPU 方面的合作是深入、戰略性且為期多年的。我們為每家合作伙伴帶來了在芯片設計、工藝技術、先進封裝和網絡方面無與倫比的技術,從而幫助每位客戶針對其差異化的 LLM 工作負載實現最佳性能。我們擁有豐富的經驗,能夠以極高的良率快速交付這些 XPU,並實現大批量生產。除了技術優勢之外,我們還提供多年供貨協議,以支持客戶擴展其計算基礎設施的部署規模。

在當前尖端晶圓、高帶寬存儲器和襯底產能受限的情況下,我們仍能確保供應,從而保障合作伙伴關係的持久性。我們已完全確保 2026 年至 2028 年這些組件的產能。與我們 XPU 的強勁前景相一致,人工智能網絡的需求也呈現蓬勃發展的態勢。第一季度人工智能網絡收入按年增長 60%,占人工智能總收入的三分之一。我們預計第二季度人工智能網絡業務將加速增長,占人工智能總收入的 40%。我們在網絡領域的市場份額正在顯著提升。

讓我解釋一下。在橫向擴展方面,我們首款上市的 Tomahawk 6 交換機(吞吐量達 100 Tbps)以及 200G 30 系列交換機正迅速滿足超大規模數據中心的需求,無論他們今年使用的是 XPU 還是 GPU。到 2027 年,隨着性能翻倍的下一代 Tomahawk 7 的推出,這一領先優勢將進一步擴大。同時,在縱向擴展方面,隨着集羣規模和客戶數量的增長,我們憑藉 200G 解決方案,能夠幫助這些客戶繼續使用直連銅纜。隨着我們在 2028 年將解決方案升級到 400G,我們的 XPU 客戶很可能仍將繼續使用直連銅纜。這是一個巨大的優勢,因為採用光纖方案成本更高,而且需要消耗更多的電力。

鑑於上述因素,我們對 2027 年的前景預期已顯著提升。事實上,我們現在有信心在 2027 年實現僅芯片業務的 AI 收入超過 1000 億美元。我們也已確保了實現這一目標所需的供應鏈。接下來談談非 AI 半導體業務。第一季度收入為 41 億美元,與去年同期持平,符合預期。企業網絡寬帶服務存儲收入按年增長,但被無線業務的季節性下滑所抵消。我們預計第二季度非 AI 半導體收入約為 41 億美元,按年增長 4%。現在讓我談談我們的基礎設施軟件業務。第一季度基礎設施軟件收入為 68 億美元,符合預期,按年增長 1%。我們預計第二季度基礎設施軟件收入約為 72 億美元,按年增長 9%。VMware 收入按年增長 13%。訂單量持續強勁,第一季度合同總額超過 92 億美元,年度經常性收入 (ARR) 按年增長 19%。我要強調的是,我們基礎設施軟件業務的增長體現了我們對基礎架構的重視和投入。而且,我們的基礎設施軟件不會受到人工智能的衝擊。事實上,VMware 雲基礎架構 (VCF) 是數據中心的核心軟件層,它將 CPU、GPU、存儲和網絡集成到一個通用的高性能私有云環境中。作為人工智能軟件和物理芯片(硅)之間的永久抽象層,VCF 不可被取代或替代。它使企業能夠以硬件無法企及的敏捷性高效擴展複雜的生成式人工智能工作負載。 我們相信,生成式人工智能和智能體人工智能的增長將會增加對 VMware 的需求,而不是減少。總而言之,讓我總結一下 2026 年第二季度的情況,我們預計合併收入按年增長將加速至 47%,達到約 220 億美元。 我們預計調整後 EBITDA 將約為營收的 68%。因此,讓我把電話轉給克爾斯滕。

首席財務官兼首席會計官克爾斯滕·斯皮爾斯:謝謝霍克。現在讓我詳細介紹一下我們第一季度的財務業績。本季度合併營收創歷史新高,達到 193 億美元,按年增長 29%。毛利率為 77%。合併運營支出為 20 億美元,其中研發支出為 15 億美元。第一季度營業利潤創歷史新高,達到 128 億美元,按年增長 31%。得益於有利的運營槓桿,營業利潤率按年增長 50 個點子,達到 66.4%。調整後 EBITDA 為 131 億美元,佔營收的 68%,高於我們此前 67%的預期。

現在我們來詳細了解一下兩個業務板塊。首先是半導體業務。半導體解決方案業務板塊的營收創下 125 億美元的新高,按年增長 52%,主要得益於人工智能的強勁增長。半導體業務營收佔本季度總營收的 65%。半導體解決方案業務板塊的毛利率按年增長 30 個點子,達到約 68%。11 億美元的運營支出反映了對領先的邊緣人工智能半導體研發投入的增加,佔營收的 8%。半導體業務的運營利潤率為 60%,按年增長 260 個點子,體現了強勁的運營槓桿效應。

接下來是基礎設施軟件部分。基礎設施軟件收入為 68 億美元,按年增長 1%,佔總收入的 35%。本季度基礎設施軟件的毛利率為 93%,運營費用為 9.79 億美元。第一季度軟件運營利潤率按年增長 190 個點子,達到 78%。

接下來是現金流情況。本季度自由現金流為 80 億美元,佔營收的 41%。我們在資本支出方面投入了 2.5 億美元。由於我們持續採購零部件以滿足強勁的人工智能需求,第一季度末庫存為 30 億美元。第一季度庫存周轉天數為 68 天,而第四季度為 58 天,這主要是由於我們預期人工智能半導體業務將加速增長。

關於資本配置。第一季度,我們向股東派發了 31 億美元的現金股息,每股普通股現金股息為 0.65 美元。當季,我們回購了價值 78 億美元(約 2300 萬股)的普通股。第一季度,我們通過股息和股票回購共向股東返還了 109 億美元。第二季度,我們預計不計潛在股票回購的影響,非 GAAP 稀釋後股份數量約為 49.4 億股。第一季度末,我們持有現金 142 億美元。今天,我們宣佈董事會已批准追加 100 億美元用於股票回購計劃,該計劃有效期至 2026 年底。

接下來是業績展望。我們預計第二季度合併營收為 220 億美元,按年增長 47%。其中,半導體業務營收預計約為 148 億美元,按年增長 76%。我們預計第二季度人工智能半導體業務營收為 107 億美元,按年增長約 140%。基礎設施軟件業務營收預計約為 72 億美元,按年增長 9%。為方便您進行模型構建,我們預計第二季度合併毛利率將與上一季度持平,為 77%。我們預計第二季度調整後 EBITDA 約為 68%。

我們預計,受全球最低稅的影響以及與 2025 財年相比收入地域構成的變化,2026 財年第二季度的非 GAAP 稅率約為 16.5%。我的發言到此結束。接線員,請開始提問環節。

以下是分析師問答:

操作員:

謝謝。(操作員說明)我們第一個問題來自傑富瑞集團的布萊恩·柯蒂斯。您的線路已接通。

Q1 分析師布萊恩·柯蒂斯:您好,下午好,感謝您回答我的問題。我先問一個問題,然後再問一個需要澄清的問題。霍克,關於超過 1000 億美元的營收,我想您指的是人工智能芯片。我只是想確認一下您解釋的是 ASIC 芯片和網絡芯片之間的區別,以及營收是如何體現在這兩方面的。然後是另一個問題,我認為目前貴公司面臨的最大挑戰是人工智能業務在本季度增長了近一倍。我認為這就是今年雲計算資本支出增長的主要趨勢。我很好奇您的看法,鑑於您對 2027 年的展望,我認為貴公司應該會取得不錯的業績。我還想了解一下,投資者普遍認為超大規模雲服務商需要在今年、明年甚至後年才能獲得投資回報,您對此有何看法?您是如何將這種悲觀情緒納入您的展望中的?

總裁兼首席執行官 Hock E. Tan:

我們看到——過去幾個月以來,我們一直看到,而且這種趨勢還在持續——這其實並非主要指超大規模數據中心,我們的客戶羣體僅限於少數幾家公司,其中一些是超大規模數據中心,一些則不是,但他們都有一個共同點,那就是創建大語言模型(LLM),將其產品化並構建平台,無論是面向企業的代碼輔助、智能體人工智能,還是面向消費者的訂閱服務。我們了解到,這些公司中,少數潛在客戶,以及我們現在的許多客戶,都在創建這種通用平台——無論是生成式人工智能還是智能體人工智能。這些就是我們的客戶,而且我們看到,他們對計算能力的需求越來越強。訓練是他們持續需要的,但真正讓我們感到驚訝的是,推理能力的需求也非常強勁,以便將他們最新創建的生命周期模型產品化並實現盈利。這種推理正在推動大量的計算能力增長,這對我們來說是件好事,因為我們的這五六家客戶正在着手打造他們自己的定製加速器。不僅如此,他們還在設計這些客戶加速器的網絡集羣架構。所以我認為,正如過去六個月我們聽到的消息一樣,需求將會持續增長。 現在,布萊恩,為了澄清你的第一部分,當我說我們預測,我們有理由相信我們在 2027 年的收入將大幅超過 1000 億美元時,我強調的是,這些收入幾乎全部基於芯片,無論是 XPU、交換芯片還是 DSP,我們談論的都是硅芯片。

分析師布萊恩·柯蒂斯:非常感謝。

操作員:稍等片刻,我們進入下一個問題。這個問題將由摩根大通的哈蘭·蘇爾先生提出。您的電話已接通。

Q2 分析師哈蘭·蘇爾:下午好。感謝您回答我的問題,也祝賀團隊取得了如此優異的成績。Hock,最近關於雲服務提供商 (CSP) 和超大規模數據中心運營商開展內部 XPU 和 TPU 設計工作的消息很多,對吧?我們稱之為 COT,即客戶自有工具。這在 ASIC 領域並非新鮮事,對吧?我認為博通團隊在過去 30 多年裏也經歷過這種 COT 競爭格局,對吧?你們一直是 ASIC 行業的領導者,但這些 COT 項目鮮有成功的。

現在談到人工智能,一些 COT 項目已經上市,但它們的性能似乎至少比你們目前的解決方案低一半,芯片設計複雜度、封裝複雜度和 IP 複雜度也低一半。所以,我可能要問兩個問題。Hock,第一個問題是,鑑於你對明年的預測,你認為 COT」 項目能否從博通手中奪走任何有意義的 TPU XPU 市場份額?第二個問題是,從性能、複雜度和 IP 的角度來看,博通的 TPU XPU 項目比任何 COT 項目都領先 12 到 18 個月,博通團隊將如何進一步擴大這一差距?

總裁兼首席執行官 Hock E. Tan:

嗯,這是一個很好的問題。而且,正如我在開場白中特意提到的,當任何一家超大規模數據中心或 LLM開發商試圖完全自主地創建所謂的客戶自有工具(COT)模型時,他們都會面臨巨大的挑戰。其中之一是技術,也就是與製造硅芯片相關的技術,特別是用於計算的 XPU(擴展處理器),以及優化和運行 LLM 工作負載所需的訓練和推理所需的技術。我們剛纔提到的技術來自不同的層面。你需要最優秀的芯片設計團隊。你需要尖端的、真正尖端的 C30 芯片,非常先進的封裝技術,而且同樣重要的是,你需要了解如何將這些芯片集羣連接起來。我們從事這行已經超過 20 年了,在硅芯片領域,尤其是在生成式人工智能這個特定領域,如果你作為一家 LLM廠商想要自主研發芯片,就不能只滿足於「夠用」的芯片。你需要市面上最好的芯片,因為你要和其他 LLM 廠商競爭。最重要的是,你還要和英偉達競爭,他們絲毫沒有放鬆警惕。他們每一代都在不斷推出性能更優的芯片。

所以,作為一家 LLM 公司,如果你想在世界範圍內建立自己的平台,就必須製造出比現有芯片更優秀的芯片,不僅要與 NVIDIA 競爭,還要與所有其他平台廠商競爭。為此,你確實需要我們的信任,我們首先看到的是這一點,以及擁有業內最佳技術、知識產權和執行力的硅芯片合作伙伴。非常謙虛地說,我們遙遙領先,在未來很多年內,COT 領域都不會出現競爭對手。競爭終究會到來,但我們還有很長的路要走,因為這場競爭仍在繼續。

還有一點是我們獨有的:當你製造出硅芯片時,你必須迅速將其投入大規模量產,儘快推向市場。我們在這方面經驗非常豐富。任何人都能在實驗室裏設計出一款性能良好的芯片。但你能以可承受的良率快速生產出 10 萬顆這樣的芯片嗎?我們很少看到世界上有哪家公司能做到這一點。查理?

分析師哈蘭·蘇爾:謝謝。謝謝你,查理。

操作員:

稍等片刻,我們進入下一個問題。這個問題將由德意志銀行的羅斯·西摩提出。您的電話已接通。

Q3 分析師羅斯·西摩:

您好,感謝您幫我提問。霍克,在您的演講稿中,您比以往更側重於網絡方面的差異化優勢。所以我想問一個短期和一個長期的問題。短期問題是,是什麼因素推動網絡業務在人工智能收入中佔比高達 40%?長期問題是,這個比例——也就是在超過 1000 億美元的收入中——是否會發生變化?您預計在該業務領域保持怎樣的領先地位,是橫向擴展還是縱向擴展?您在該領域的領先地位是否有助於您的 XPU 業務,因為您可以同時優化計算和網絡方面?

總裁兼首席執行官 Hock E. Tan:

好的,我們先來回答第一個問題。羅斯,這個問題相當複雜。是的,在網絡方面,尤其是在新一代 GPU 和 XPU 即將推出的時候,我們的帶寬已經達到了 200Gbps 甚至千兆比特。我們大約在六個月前(確切地說是九個月前)推出的 Tomahawk 6,是目前市場上唯一一款。我們的客戶和超大規模數據中心運營商都希望他們的集羣能夠使用最好的網絡和最高的帶寬。

所以我們看到對這方面的需求非常巨大——目前市面上只有一台 100Tbps 的交換機。這極大地推動了需求。再加上我們以 1.6 倍帶寬運行 Ben,用於擴展光收發器帶寬。我們再次成為市場上唯一一家以 1.6 倍帶寬運行 DSP 的廠商。我認為,這些因素共同推動了我們網絡組件的增長,甚至超過了我們 XPU 的增長速度,而 XPU 的增長速度已經相當驚人了。這就是你現在看到的。但我認為,在某個時候,這些需求會趨於穩定,儘管我們不會放慢速度,因為正如我所說,明年,也就是 2027 年,我們將推出下一代 Tomahawk 7,性能是現在的兩倍,我們很可能成為首批推出該產品的廠商,這將繼續保持增長勢頭。最後,回答你的問題,是的,我預計在任何季度,AI 網絡組件在我們總 AI 收入中的佔比都將在 33%到 40%之間。

分析師羅斯·西摩:太好了,謝謝霍克。

總裁兼首席執行官 Hock E. Tan:謝謝。

操作員:

稍等片刻,我們進入下一個問題。這個問題將出自 CJ Muse 與 Cantor Fitzgerald 的對話。您的對話已開啓。

Q4 分析師 CJ Muse:下午好。感謝您回答這個問題。我很好奇,您如何看待將預填充和解碼從 GPU 生態系統中分離出來,以及這對定製芯片需求的影響?您是否預見到 GPU 和定製芯片之間的相對比例會發生任何變化?

總裁兼首席執行官 Hock E. Tan:

CJ,我不太明白你的問題,你能解釋一下「分解」是什麼意思嗎?

分析師 CJ Muse:

當然,將工作負載推給 CPX 進行預填充,並按解碼次數進行處理,你知道,這種分散化的環境是否會對定製需求與採用完整的 GPU 堆棧的需求造成任何壓力。

總裁兼首席執行官 Hock E. Tan:

好的,我明白你的意思了。這種聚合方式,某種程度上來說,你真正想表達的是——人工智能加速器的架構,無論是 GPU 還是 XPU,是如何隨着工作負載的演變而演進的。而這正是我們目前非常關注的。通用 GPU 雖然可以滿足所有需求,但它也只能做到這一步。它仍然可以繼續運行,因為你仍然可以運行不同的工作負載,比如運行混合專家模型,即使你希望確保專家模型具有稀疏成本才能非常有效(你聽說過這個術語)。但在 GPU 中,它是為密集矩陣乘法而設計的。

所以,雖然可以用軟件內核來實現,但這不如在芯片上實現高效,而且 XPU 的設計初衷就是為了在混合專家工作負載方面擁有更高的性能。推理也是如此。最終,你會發現 XPU 的設計越來越針對我們 LLM 客戶的特定工作負載進行定製。而且,這種設計開始依賴於傳統的標準 GPU 設計,這也是為什麼我們之前一直強調的,XPU 最終會成為更佳選擇,因為它能夠靈活地設計出適用於特定工作負載的模型,例如一個用於訓練,一個用於推理。

正如您所說,一個可能更擅長預填充,另一個可能更擅長訓練後、強化學習或測試時間擴展。您可以調整 TPU,使其更適合 XPU,或者更準確地說,是針對您想要的特定工作負載 LLM 進行調整。我們已經看到了這一點。我們在所有五位客戶身上都看到了這種趨勢。

操作員:

稍等片刻,我們進入下一個問題。這個問題將由瑞銀集團的蒂莫西·阿庫裏先生提出。您的電話已接通。

Q5 分析師 Timothy Arcuri:

非常感謝。我有個關於這些機架系統發貨後毛利率波動的問題。我的意思是,很明顯,發運這些機架會拉低綜合毛利率,但我想知道您能否提供一些參考標準?該產品的毛利率似乎在 45% 到 50% 之間。所以我想,隨着機架開始發貨,我們是否應該考慮到毛利率會下降大約 500 個點子?另外,Hock,是否存在一個毛利率下限,低於這個下限您就不會繼續生產更多機架了?謝謝。

總裁兼首席執行官 Hock E. Tan:

很遺憾地告訴你,你可能有點幻覺了。我們的毛利率確實和克爾斯滕報告的數字一樣。毛利率的波動以及人工智能產品價格上漲都不會影響到我們。我們的良率和成本都已經控制在合理範圍內,人工智能領域的模型將與我們半導體業務其他領域的模型基本一致。克爾斯滕?

首席財務官兼首席會計官克爾斯滕·斯皮爾斯:我同意這個觀點。我認為,經過進一步研究,即使與我上個季度發表的評論相比,對我們整體業務結構的影響實際上也微乎其微。所以,我並不擔心。

分析師 Timothy Arcuri:好的,非常感謝。

操作員:

稍等片刻,我們進入下一個問題。這個問題將由伯恩斯坦的斯泰西·拉斯貢提出。您的線路已接通。

Q6 分析師 Stacy Rasgon:

大家好。感謝你們回答我的問題。我不知道這個問題應該問 Hock 還是 Kirsten,但我很想深入了解一下明年超過 1000 億美元的項目。我正在嘗試計算一下裝機容量(以吉瓦為單位)。我數了一下,大概有八九個,Anthropic 有三個,OpenAI 有一個,所以是四個。你們說 Meta 有好幾個,所以至少有兩個,這樣就包括 Tomahawk 6。我估計 Google 的規模應該比 Meta 大。所以至少有三個,加起來是九個,然後你們還有一些其他的。我以為你們每吉瓦的內容價值大概在 200 億美元左右。我想問的是,我計算的你們計劃在 2027 年交付的裝機容量(以吉瓦為單位)是否正確?以及,隨着交付量的增加,你們每吉瓦的內容價值應該如何計算?也許最終會遠遠超過 1000 億美元。

總裁兼首席執行官 Hock E. Tan:

你的觀點非常有趣,我得提醒你一下。你說得對,可以用吉瓦來衡量,這纔是正確的衡量方式,而不是用美元,因為我們的芯片就是按吉瓦來賣的。所以你要明白,根據我們 LLM 的客戶(現在是六個客戶,抱歉,不是五個,是六個),每吉瓦芯片的價格會有所不同。有時差別相當大。確實會有差異。但你說得對,它和你說的美元價格相差不遠。如果你以 2027 年的吉瓦為單位來看,我們預計會接近 10 吉瓦。

分析師 Stacy Rasgon:明白了,這很有幫助,謝謝。

操作員:接下來,我們將邀請來自 Melius Research 的 Ben Reitzes 先生提問。您的提問已接通。

Q7 分析師 Ben Reitzes:

嗨,謝謝。很高興能和你交流。我想問問你關於 2028 年之前四大主要零部件供應前景的分析,你是怎麼做的?你可能是第一個把預測延伸到 2028 年的人。其次,鑑於你的人工智能業務在 2027 年實現了驚人的增長,根據你之前的分析,你認為 2028 年的供應前景是否足以支撐業務的進一步增長?非常感謝。

總裁兼首席執行官 Hock E. Tan:

我能說的最好答案是,是的,你說得對。我們預料到了這種迅猛的增長。雖然沒人能預料到目前的增長速度,但我們確實預料到了很大一部分增長,或者說,至少在未來六個月以上會持續增長。我們很早就掌握了光罩的鎖定技術。如果你聽說過我們之前提到的那個臭名昭著的光罩鎖定,那我們絕對是最早一批掌握這項技術的。我們已經鎖定了基質。我們和優秀的合作伙伴一起,在我們之前提到的其他方面都取得了進展。所以,對於你的問題,答案是:這在某種程度上得益於我們早期的預期,以及我們在這些關鍵組件領域擁有非常優秀的合作伙伴。除了「是的」之外,我還能說什麼呢?查理,你還有什麼要補充的嗎?

半導體解決方案集團總裁查理·卡瓦斯:

是的,可能就簡單提幾個問題。我覺得你那部分講得非常透徹。本,我認為還有一點非常重要,正如你所說,我們為六家客戶定製芯片。我們與他們建立了非常深入的多年戰略合作關係。由於這種定製能力,他們會與我們分享他們未來至少兩到三年,有時甚至是四年內的具體預期。正因如此,我們才着手確保霍克提到的所有要素。而當我們確保這些要素時,就需要與這些合作伙伴進行投資,有時不僅要開發更大的產能,還要開發合適的技術和產能。所以我們必須確保未來幾年的合作關係。而且我們可能是——你說得對,我們可能是第一家確保到 2028 年甚至更久的——公司。

分析師 Ben Reitzes:

以目前的供應情況來看,2028 年你能實現增長嗎?不好意思,我突然問這個問題。

半導體解決方案集團總裁 Charlie Kawwas:是的。

分析師 Ben Reitzes:謝謝。

操作員:謝謝。接下來,我們將由美國銀行證券的維韋克·阿亞先生提問。您的電話已接通。

Q8 分析師 Vivek Arya:

感謝您回答我的問題。霍克,我首先想澄清一下,您今年在 Anthropic 公司開展的項目,比如投資 200 億美元建設 1 吉瓦的裝機容量,其中有多少是芯片,有多少是機架式設備?我想了解的是,您提到的 1000 億美元芯片項目,是指芯片項目還是機架式設備?因為僅機架式設備項目明年的規模就預計會擴大三倍。

那麼我的問題是,您的人工智能業務正在從之前與一個大型客戶建立的獨家合作關係,轉型為現在與多個客戶合作,而這些客戶使用多個供應商。由於這些客戶分散在衆多雲服務提供商之間,合作模式非常分散,您如何才能清晰了解並自信地預測您在這些客戶中的市場份額增長情況?您採取了哪些措施來確保您能夠清晰了解這些分散的客戶羣體,並佔據合適的市場份額?

總裁兼首席執行官 Hock E. Tan:

維韋克,首先,正如查理精闢地指出,我們的客戶非常少,確切地說,只有六個。就我們目前的業務量和收入而言,我們只有六個客戶,而且在此之前,客戶數量更少。其次,我也必須明白,考慮到每個客戶的消費金額以及他們所開展業務的重要性,我們很難全面了解他們的投入。正因如此,Meta 才推出了 MTIA,這是一個人工智能和客戶加速計劃。

對他們來說,就像對我在這個領域的每一位客戶一樣,這是一種戰略佈局,而非可選項。對他們而言,長期、短期、中期都是戰略性的,極其重要的戰略。他們不會止步不前,而且他們每個人都非常清楚,他們希望將這些定製芯片定位在 LLM 開發軌跡中的位置,以及如何開發推理技術以實現 LLM 產品化。這部分,我們非常清楚。至於 GPU、雲、以及基於雲的超高速計算業務,這些都屬於事務性操作和可選項。所以,正如您所指出的,這確實令人困惑。

相信我,我們和我們的客戶都不會這麼做。他們非常注重戰略,目標明確,他們清楚地知道自己要構建什麼,以及每年想要構建多少產能。他們唯一考慮的就是:能否更快地完成。除此之外,一切都按照既定的路線圖進行,具有很強的戰略性和針對性。你看到的任何其他做法,對他們來說純粹是投機取巧,只是為了增加選擇的餘地。所以,這一點非常明確。

分析師 Vivek Arya:關於澄清部分,Anthropic 的貨架和芯片有什麼區別?謝謝。

總裁兼首席執行官 Hock E. Tan:

我不太想回答這個問題,但我們一切都好。正如克爾斯滕所說,我們的資金和利潤都很充足。

分析師 Vivek Arya:謝謝。

操作員:

謝謝。接下來的問題來自巴克萊銀行的湯姆·奧馬利。您的線路已接通。

Q9 分析師湯姆·奧馬利:

大家好,感謝你們回答我的問題。我有一個問題問 Hock,一個問題問 Charlie。Hock,我知道你對前導部分的內容非常講究,你也提到客戶要求使用直連銅纜,速度達到 400Gbps,速率為 30s。你特別強調這一點有什麼原因嗎?尤其你還是 CTO 領域的先驅。Charlie,隨着你客戶羣的擴大,我想和你合作的客戶應該會使用可擴展以太網。你能不能談談可擴展協議,以及你對以太網未來發展的看法?謝謝。

總裁兼首席執行官 Hock E. Tan:

好的。不,除非——我只是想強調我們在網絡方面的優勢,我們的技術確實非常獨特,能夠幫助我們的客戶,甚至包括那些使用跨平台 GPU(不僅僅是 XPU)的客戶。也就是說,如果您正在運行並嘗試創建 LLM,並創建您自己的 AI 數據中心,進行設計和架構,您肯定希望構建越來越大的域或集羣,並且儘可能將 GPU 直接連接到 XPU。而實現這一點的最佳方式就是使用直連銅纜。這是延遲最低、功耗最低、成本最低的方式。因此,您應該儘可能地繼續使用這種方式,尤其是在縱向擴展方面。在橫向擴展方面,我們已經超越了橫向擴展的範疇。我們使用光纖。這沒問題。但我說的是機架集羣領域的縱向擴展,您真的應該儘可能地使用直連銅纜。我們仍然基於博通的技術——尤其是在 XPU 到 XPU 甚至 GPU 到 GPU 的連接方面。我們可以用銅纜實現,而且可以將傳輸速度從 100G 提升到 200G,甚至 400G。我們現在已經實現了 400G 傳輸,而且銅纜傳輸距離足夠遠。我想說的是,你沒必要急着去追求那些所謂的 CPO(銅纜運營商),即使我們是 CPO 的先行者,CPO 也會在適當的時候出現,不是今年,也許不是明年,但總有一天會到來。明白了嗎?

半導體解決方案集團總裁查理·卡瓦斯:

是的。沒錯,霍克說得好。關於以太網,隨着雲計算的興起,以太網在過去二十年裏已成為所有云平台的實際標準。回顧後端網絡的誕生,正如霍克所闡述的,兩年前曾就應該使用哪種協議來實現所需的延遲和擴展能力展開過激烈的爭論。當時,也就是 24 個月前,業界對此並不清楚。但我們很清楚,我們非常清楚答案應該是什麼。而且,由於我們與合作伙伴的深入合作,他們向我們和整個行業明確表示,無論是 GPU 還是 XPU,以太網都是橫向擴展的首選方案。沒錯,如今大家都在談論使用以太網進行橫向擴展。那麼,說到縱向擴展,就像三四年前縱向擴展的情況一樣,現在的正確答案是什麼呢?我們不斷聽到和看到的答案都是:以太網。和去年一樣,我們與多家超大規模數據中心運營商以及半導體行業的許多同行共同宣佈,以太網擴展是正確的選擇。我們相信這將是未來的發展方向。時間會證明一切,但我們正在進行的許多 XPU 設計都要求通過以太網進行擴展,我們很樂意為此提供支持。

分析師湯姆·奧馬利:謝謝你們兩位。

操作員:

謝謝。接下來,我們將由高盛的吉姆·施耐德先生提問。您的線路已接通。

Q10 分析師 James Schneider:

下午好,感謝您回答我的問題。Hock,很高興聽到您談到除 TPU 之外的其他全定製 XPU 項目的進展。展望明年,我們可以假設這些項目主要面向推理應用嗎?能否請您定性地談談相對於 GPU 的性能或成本優勢,這些優勢如何幫助客戶進行如此大規模的預測?謝謝。

總裁兼首席執行官 Hock E. Tan:

謝謝。我們的大多數客戶都從推理入手,因為這往往是最簡單的入門途徑。這並非出於其他原因,而是因為推理的計算量要小得多。此外,問題在於,既然可以使用定製的推理芯片(例如 XPU)更高效地完成任務,是否還需要通用的大規模稠密矩陣乘法 GPU?XPU 的性能更好,甚至不遜色,而且成本更低,功耗也更低。而這正是我們發現這些客戶最初選擇從 XPU 開始的原因。

但它們現在正處於訓練階段,我們的許多 XPU 都同時用於訓練和推理。順便說一句,它們是可以互換的,就像 GPU 不僅可以用於訓練(它們可能更適合訓練),還可以用於推理一樣。我們看到的是,我們的 XPU 同時用於這兩種用途。而且這種情況正在發生。但我們也很快看到,對於那些在實現完整 XPU 的過程中已經相當成熟的客戶,他們將開始每年同時開發兩款芯片,一款用於訓練,一款用於推理,以實現專業化。為什麼?因為我們非常清楚地看到,對於這些 LLM 廠商來說,進行訓練是為了獲得——為了讓他們的 LLM 達到更高的智能水平。

太好了,你擁有了一款優秀的 LLM,甚至可以說是最先進的。現在你需要將其產品化,也就是實現推理功能。這時你就可以斷定你的模型已經是最好的了,因為如果你現在纔開始進行推理功能的產品化,至少需要一年的時間。而在此期間,其他人可能已經開發出了比你的更好的 LLM。所以,當你進行訓練,以在 LLM 中創造更高層次的智能時,你必須同時投資於推理功能,包括芯片和容量。隨着我們發現這六位客戶在印度的 LLM 技術日趨成熟,並朝着更好的 LLM 邁進,我們的市場前景也越來越光明。是的,這就是我們觀察到的趨勢。雖然並非所有六位客戶都如此,但我們看到他們中的大多數正在朝着這個方向發展。

操作員:

謝謝。稍等片刻,我們進入下一個問題。這個問題將由 TD Cowen 的 Joshua Buchalter 提問。您的線路已接通。

Q11 分析師 Joshua Buchalter:

大家好。感謝你們回答我的問題,也祝賀你們取得的成果。我非常感謝你們詳細闡述了針對特定客戶的部署預期。我希望你們能談談過去一兩個季度以來,你們對項目的可見性有哪些變化,從而讓你們更有信心提供更多細節。另外,你們提到 OpenAI 在 2027 年的裝機容量將超過 1 吉瓦。考慮到該協議涵蓋 2029 年之前的 10 吉瓦裝機容量,我猜這意味着 2028 年將會有一個相當大的增長。我的理解對嗎?這是否一直是你們的計劃?謝謝。

總裁兼首席執行官 Hock E. Tan:

是的。嗯,沒錯,正如大家所見,也正如大家所知,我們現在正處於一場生成式人工智能的競賽之中——我不應該用「競賽」這個詞,我們不妨稱之為幾家廠商之間的競爭。我的意思是,這的確是一場競爭。每家廠商都在努力打造比對方更優秀、更適合特定用途的大模型(LLM),無論是企業級、消費級還是搜索級,他們都在不斷改進。而這一切不僅需要訓練(這對於持續改進 LLM 模型至關重要),還需要推理來實現 LLM 的產品化和盈利。我們再次強調(或許應該稱之為「IT」),我們已經與其中一些廠商合作超過兩年了。隨着他們越來越相信與我們合作開發的 XPU 能夠實現他們的目標,我們的影響力也越來越大。隨着他們逐漸意識到正在開發的 XPU 及其所需的軟件和算法,他們越來越有信心這款 XPU 芯片正是他們所需要的,而且情況會越來越好。正如查理所說,我們也能更清楚地了解進展,因為歸根結底,我們僅6家核心AI客戶。而正如我所說,這六個人都以非常戰略性的方式看待 XPU 和人工智能。

他們並非着眼於一代又一代人的發展,而是着眼於未來數年,跨越數代人。儘管外界充斥着各種關於現有產品的喧囂,但他們的思考卻非常長遠——他們着眼於如何部署與我們共同開發的經驗,如何將其應用於構建他們想要打造的更優質的LLM,以及更重要的是,如何實現盈利。因此,我們是他們戰略路線圖的一部分。我們並非僅僅提供一些可選方案,比如「哦,我該用 GPU 嗎?我該用雲端嗎?因為我需要訓練六個月。」不,這遠不止於此。他們的投資是長期的,能夠參與到他們的長期路線圖中,而不是僅僅參與到短期的交易路線圖中,我感到非常榮幸。

正如我之前回答過的一個問題,噪音指的是很多短期交易干擾了我們業務和產品的長期戰略定位。總而言之,我認為我們目前在 XPU 領域的業務對我們現有的六家客戶來說都是一項可持續的戰略舉措。

分析師 Joshua Buchalter:

謝謝。

操作員:

謝謝。今天的問答環節到此結束。現在我想把電話交還給智宥,請她做最後的總結髮言。

投資者關係負責人 Ji Yoo:

謝謝。博通目前計劃於 2026 年 6 月 3 日星期三股市收盤後發布 2026 財年第二季度財報。博通財報電話會議的公開網絡直播將於太平洋時間下午 2:00 舉行。今天的財報電話會議到此結束。感謝各位的參與。Sree,你可以結束通話了。

操作員:今天的節目到此結束。感謝各位的參與。現在可以斷開連接了。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10