老黃提前鎖倉:CPO 大爆發前夜,光模塊進入「軍備競賽」

金融界
昨天

來源:美股研究社

人工智能的狂飆突進中,市場的目光往往聚焦於 GPU 本身的算力迭代,卻容易忽視支撐這一龐大算力網絡的「神經系統」。

當所有人還在為 H100、B200 的產能分配爭論不休時,英偉達創始人黃仁勳已經將視線投向了更深層的基礎設施——光互聯。

近日,市場傳出 NVIDIA 向光通信巨頭 Lumentum 與 Coherent 各注資 20 億美元,並簽下鉅額採購承諾與未來產能權益。

這一動作看似是財務投資,實則是算力基礎設施的「戰略圍堵」。

這標誌着 AI 產業鏈的競爭邏輯正在發生根本性轉變:從單純的芯片性能競賽,演變為對上游核心供應鏈的資本綁定與產能鎖定。

光模塊,尤其是共封裝光學(CPO)技術,正站在大爆發的前夜,一場屬於光互聯的「軍備競賽」已經悄然打響。

不是投資,是鎖倉:英偉達

在為「光模塊缺貨」做預案

要理解英偉達這一舉動的深意,必須回顧過去兩年 AI 服務器利潤曲線被 HBM(高帶寬內存)反向「卡脖子」的教訓。

在 AI 算力爆發的初期,市場普遍認為瓶頸在於 GPU 的製造產能。然而,隨着需求激增,真正的制約因素迅速轉移到了 HBM 上。

存儲三巨頭(SK 海力士、三星美光)憑藉其在 HBM 封裝技術上的壟斷地位,掌握了極強的定價權。

HBM 價格的持續上漲,直接侵蝕了 GPU 廠商的利潤空間,甚至導致部分高端顯卡因內存缺貨而無法交付。

這種被動局面,是追求極致效率與成本控制的英偉達所不能容忍的。

「喫一塹,長一智」。英偉達深知,在算力密度指數級增長的背景下,下一個瓶頸絕不會是存儲,而是數據傳輸的「帶寬」與「功耗」。

隨着 AI 集羣從萬卡級向十萬卡級演進,傳統的電互連技術已逼近物理極限。

在高速信號傳輸中,銅纜的損耗與發熱量呈指數級上升,功耗牆(Power Wall)成為制約算力釋放的最大障礙。

數據顯示,在高速率場景下,I/O 接口的功耗甚至可能超過芯片本身的計算功耗。此時,光互連不再是可選項,而是必選項。

而共封裝光學(CPO)技術,通過將光引擎與交換芯片封裝在一起,大幅縮短了電信號傳輸距離,成為下一代「吉瓦級 AI 工廠」的唯一能耗解法。

誰掌握了高端激光器與硅光子產能,誰就握住了數據中心演進的節拍器。

然而,CPO 產業鏈成熟度遠不如傳統光模塊,產能爬坡慢,技術門檻高。如果等待供應鏈自然成熟,英偉達極有可能重蹈 HBM 的覆轍——在需求爆發時面臨核心組件缺貨或被供應商坐地起價。

因此,英偉達此次選擇不等,而是直接成為供應鏈的資本共建者。

向 Lumentum 與 Coherent 注資並鎖定產能,本質上是一種「防禦性進攻」。這並非簡單的財務投資,不求短期股價回報,而是求長期的供應鏈安全與成本可控。

通過資本紐帶,英偉達將原本鬆散的商業合作關係,升級為利益綁定的「產能共同體」。

這是一種近乎明牌的陽謀:在光模塊成為稀缺資源之前,提前將優質產能納入自己的版圖,確保在 CPO 大爆發時,英偉達的算力集羣擁有優先「通航權」。

35% 到更高:LITE 的「超級訂單」

幾乎已經寫在時間軸上

在這場資本與技術的聯姻中,Lumentum(LITE)無疑是最大的受益者之一。

財務數據揭示了雙方關係的深度。在 2024 財年,NVIDIA 已經貢獻了 Lumentum 約 35% 的營收。

這意味着,LITE 本身就已是深度綁定 GPU 巨頭的核心供應商。而此次 20 億美元的股權注入,疊加數十億美元的採購承諾,標誌着雙方關係從「重要客戶」正式升級為「戰略共生」。

我們可以對未來的訂單規模做一個保守的推演。假設未來四年內,相關採購承諾與新增訂單總規模超過 50 億美元,分攤到每年約 12.5 億美元的新增收入。

考慮到 Lumentum 當前年營收規模約 20 億美元左右,這意味着其理論營收上限可觸及 40 億美元區間,接近翻倍增長。

但這不僅僅是數字的線性疊加,更是盈利質量的結構性放大。

首先,AI 數據中心光模塊的單價(ASP)與毛利結構遠優於傳統電信市場產品。傳統電信光模塊受限於運營商資本開支周期,價格競爭激烈,毛利微薄。

而 AI 光模塊屬於高性能計算基礎設施,對穩定性、速率要求極高,客戶對價格敏感度低,更看重交付能力。

因此,LITE 來自英偉達的訂單將顯著拉升其整體毛利率。

其次,CPO 屬於前沿技術門檻區間,競爭對手有限,供給彈性受限。硅光子技術涉及複雜的芯片設計與封裝工藝,全球範圍內具備大規模量產能力的企業屈指可數。在供給受限的情況下,作為核心供應商的 LITE 將擁有更強的議價能力。

第三,英偉達新一代 Rubin 架構周期與 CPO 部署節奏高度重合。市場普遍預期,Rubin 架構將大幅提升對光互聯的需求,以支撐其龐大的顯存帶寬與集羣通信能力。訂單的確定性極強,幾乎已經寫在了時間軸上。

如果說過去的 LITE 只是一家跟隨行業周期波動的普通光模塊公司,那麼現在的它,更像是被英偉達提前「預定」的戰略節點企業。其業績波動將不再單純取決於宏觀電信市場,而是直接掛鉤全球 AI 算力的建設進度。

資本市場的反應往往是最誠實的。近期 LITE 股價的強勢表現,並非單純對公告字面的解讀,而是對訂單可見度的定價。

投資者讀懂了其中的邏輯:在 AI 軍備競賽中,賣鏟子的人或許會面臨競爭,但被「軍火商」親自投資並鎖定的鏟子供應商,其地位是無可替代的。

真正的衝突:光互聯會不會

成為下一個 HBM?

隨着英偉達的入局,爭議也隨之而來。市場對於光模塊的預期出現了分化。

一部分保守投資者擔心,CPO 技術仍處於導入期,生態尚未完全成熟,大規模放量可能需要數年時間,短期內難以貢獻顯著利潤。

另一派觀點則認為,一旦進入「吉瓦級 AI 工廠」建設階段,光模塊的需求彈性將遠超市場想象,其爆發力可能複製甚至超越 HBM 的路徑。

真正的衝突點在於,光互聯是否會成為下一個 HBM?即,是否會成為制約算力發展的核心瓶頸,並引發價格與利潤的劇烈重分配?

關鍵變量在於兩點。

第一,AI 集羣規模的指數級擴張。當前的 AI 訓練集羣正從萬卡級邁向十萬卡級。在這種規模下,卡與卡之間、服務器與服務器之間的通信帶寬需求呈指數級提升。

電互連在功耗與信號完整性上已接近物理極限,無法支撐更長距離、更高速率的傳輸。CPO 的滲透率一旦突破臨界點,將快速複製 HBM 的路徑——從「可選配置」變為「標準配置」,需求將呈現井噴態勢。

第二,英偉達的投資動作改變了供需結構。提前鎖定產能意味着未來幾年高端激光組件的有效供給將被「戰略性佔用」。這會對其他 GPU 廠商形成隱性擠壓。

AMD英特爾以及其他定製芯片廠商,在爭奪高端光模塊產能時,可能會面臨「有錢買不到貨」或「需要支付更高溢價」的困境。這種供需錯配,將進一步推高光模塊行業的整體景氣度。

從投資視角看,這是一種明確的風向標信號。

當算力巨頭開始向上遊延伸資本觸角,意味着產業鏈的利潤中心正在發生移動。

在 GPU 發展的早期,利潤主要集中在芯片設計環節;隨着 HBM 的爆發,存儲環節分走了鉅額利潤;如今,光互連正在成為新的高地。

英偉達不是在押注一家公司,而是在為下一代算力架構鋪設「光速通道」,確保其生態系統的護城河不僅深,而且寬。

對於 Lumentum 而言,這幾乎是一張寫好名字的增長劇本。但資本市場真正要問的不是「會不會增長」,而是——當光模塊真正爆發時,估值是否已經來不及反應。

目前的市場定價,或許只反映了短期採購承諾的預期,尚未完全計入 CPO 全面滲透後的長期壟斷溢價。

一旦行業進入供不應求的「賣方市場」,擁有產能鎖定優勢的企業,其估值邏輯將從「製造業」切換為「資源業」。

結語:算力戰爭的「下半場」

英偉達對 Lumentum 和 Coherent 的鎖倉,是 AI 算力戰爭進入「下半場」的標誌性事件。

上半場是芯片算力的競爭,比拼的是晶體管數量與架構效率;下半場則是系統效率的競爭,比拼的是數據傳輸速度與能耗控制。

在這一階段,光模塊不再是邊緣配件,而是決定算力集羣效率的核心樞紐。

老黃的這一手「提前鎖倉」,既是對 HBM 瓶頸的應激反應,更是對未來技術路線的堅定押注。

它向整個產業鏈傳遞了一個清晰的信息:在 AI 時代,供應鏈的安全與可控,其價值不亞於技術本身的創新。

對於投資者而言,關注點應從單純的 GPU 廠商,延伸至那些被巨頭深度綁定、掌握核心光互聯技術的上游企業。

因為當潮水退去,算力工廠的燈光亮起時,照亮整個系統的,正是這些被提前鎖定的「光」。

光模塊的軍備競賽已經開始,而發令槍,正是英偉達資本注入的那一刻。在這場競賽中,誰掌握了光,誰就掌握了AI未來的速度。

美股頻道更多獨家策劃、專家專欄,免費查閱>>

責任編輯:櫟樹

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10