“站在光里”的Lumentum(LITE.US)闯入纳指100! AI数据中心奔赴“光互连时代”

智通财经
May 09

智通财经APP获悉,“谷歌TPU AI算力链”的最核心参与者,同时也是“英伟达AMD AI GPU系AI算力链”不可或缺核心光学/光模块组件供应商的Lumentum(LITE.US)不久后将成为美股基准股指之一纳斯达克100指数的成分股,取代CoStar(CSGP.US),该变更将于2026年5月18日美东时间星期一美股开市前生效。对于2026年迄今疯涨145%以及2025年全年狂飙345%的“AI超级大牛股”Lumentum,乃至近日席卷全球股票市场的“要站在光里”投资主题而言可谓是重大利好催化。“要站在光里”投资主题即“数据中心光互连/光通信产业链投资热潮”。

对于Lumentum股价牛市前景而言,看涨该公司股价强劲延续2025年牛市轨迹的华尔街金融机构可谓越来越多。Lumentum2025年全年股价涨幅高达340%——乃全球股市毋庸置疑的AI算力主题“超级大牛股”,今年以来股价涨幅可谓势如破竹,高达惊人的145%。

为何Lumentum2025年迄今股价走势可谓“牛到极致”,主要逻辑在于Lumentum能够同时受益于谷歌TPU AI算力产业链以及英伟达主导的AI GPU系算力产业链。未来无论是英伟达AI GPU算力基础设施集群还是谷歌TPU集群(TPU代表的是AI ASIC技术路线),都离不开“Lumentum所代表的这类光学互连与CPO硅光高速互连能力”。

Lumentum加入有着“全球科技股风向标”称号的纳斯达克100指数(简称“纳指100”),对于该公司基本面前景以及光互连产业链投资前景而言是极其重要的正面催化剂。指数纳入把Lumentum从AI数据中心光互连“小众供应链标的”正式推到全球科技类核心资产池,也意味着AI算力投资主线叙事正在从“围绕AI GPU/ASIC单点算力竞赛”加速转向“AI智能体驱动的人工智能全栈系统”,而在这种AI主线叙事转变中,数据中心CPU、存储芯片以及光互连产业链可能是最大赢家势力。

Lumentum可谓吃满AI基建红利! 无论英伟达GPU还是谷歌TPU技术路线占优势,它都能延续牛市轨迹

TPU与GPU算力群这类AI超级集群中,都有一个核心共性:需要极高带宽、极低延迟、以及极高能效的数据中心内部互连。 传统铜缆或电子交换方案在扩展到数千甚至数万芯片规模时,会因功耗与热损耗爆炸性增长而无法满足需求;光互连技术(主要包括共封装光学CPO、硅光子交换机、光电路交换OCS)能用光信号替代电信号,在大规模AI训练/推理网络中显著提升带宽密度与能效,并减少延迟与功耗,这种对更高光互联容量的需求正是GPU与TPU集群共通的。

比如英伟达主导的Spectrum‑X/Quantum‑X 等硅光子网络交换机明确集成了激光与光子技术,从而提升功率效率与网络容量,而Lumentum的高性能激光器和光学部件是这些交换机不可或缺的一部分。

谷歌在Jupiter/AI数据中心网络体系里,已经大规模把 OCS(光路交换机)集群嵌进架构,用来支撑TPU AI系统和大规模训练/推理系统,Lumentum的R300/R64等OCS产品就是专门对准“大型云计算规模 + AI/ML 数据中心网络”:用MEMS光路直接在端点间建立光连接,绕开中间电交换和OEO转换,主打高端口数、低时延、低功耗。

未来尤其是在英伟达AI GPU算力集群这边,Lumentum由于拿到了来自英伟达巨额投资以及长期产能和新研发路径绑定,在UHP laser/ELS/CPO/OCS这些核心光互连条链上,大概率会成为一线核心受益者。Lumentum很大概率将是未来AI光互连浪潮里的“关键军火商”,尤其对英伟达GPU链条更重要。

Lumentum 堪称是光通信关键部件的制造者(激光器、光器件供应商),它也出货一些光模块产品和子系统,但其核心技术优势在于能独家构建最基础光源与高速光学器件平台,这些组件被大量集成进大型AI数据中心各种光模块和光通信系统中。

Lumentum 不是博通那种以交换ASIC/DSP为中心的平台型玩家,也不是Coherent 那样把silicon photonics、VCSEL、InP-on-silicon全栈都摆在台前的“广谱型光学公司”;Lumentum真正强劲同时也是吸引华尔街资金的地方,是InP激光、EML、超高功率激光(UHP)、外部激光源与OCS这些AI光互连最难扩产、最难做出高良率、最容易卡技术瓶颈的环节。

Lumentum预计到2026财年底,EML产能将较2025年增长超50%,此前该公司已推进约40%的磷化铟(InP)扩产计划,并预测到2030年,AI数据中心对InP需求年复合增长率将达到85%。Lumentum预计2025至2028年间,OCS出货量年复合成长率(CAGR)将超过150%,目标在2027年实现逾10亿美元的年化营收。

从GPU军备赛到“光互连”时代,AI算力基建狂潮把光互连产业链推上核心资产舞台

AI算力的瓶颈正在从GPU本身扩散到“GPU之间如何高速、低功耗、低延迟互连”,这也意味着AI算力投资主线叙事正在从“围绕AI GPU/ASIC单点算力竞赛”加速转向“AI智能体驱动的人工智能全栈系统”,而在这种AI主线叙事转变中,数据中心CPU、存储芯片以及光互连产业链可能是最大赢家势力。

欧洲金融巨头法国巴黎银行(BNP Paribas)近期发布研报称,当前超大规模AI数据中心如火如荼建设进程迫切需要处于严重“供不应求”状态的光互连与存储芯片产业链,乃这家欧洲机构最为看好的两大科技板块投资主线。

“谷歌TPU AI算力链”的最核心参与者,同时也是“英伟达与AMD AI GPU系AI算力链”不可或缺核心光学/光模块组件供应商的Lumentum(LITE.US)近日重磅宣布,该公司订单可能将排满2028 年,英伟达更是直接豪掷20亿美元率先锁定绝大多数产能。

Lumentum 首席执行官迈克尔·赫尔斯顿表示,美国超大规模云服务商的资本支出数额巨大,且目前看来仍无终结之势,“我们正日益落后于需求。预计在两个季度之内,我们到2028年底前的产能就将被抢购一空。”

从AI数据中心技术层面来说,不论是英伟达InfiniBand与谷歌都在深度探索的CPO光学时代(把光子元件共封装在交换机/ASIC 近旁以降低延迟与功耗),还是OCS光路体系(利用光学交换替代电子转发减少能耗与延迟),都需要大量高性能光源、激光器、光学交换器和高密度光互连模块 来实现光信号的生成、传输与切换。而Lumentum在这些光电子基础件(包括高效激光器和支持 OCS/CPO 的独家光模块)拥有深入的技术积累,使它成为多个AI高性能网络架构光学层的基础供应者。

对Lumentum本身基本面而言,纳指100的纳入带来三重正向影响:首先就是被动资金和指数产品配置会提升流动性与机构持有广度;第二,纳指100身份强化其作为AI算力基础设施核心供应商的“资产标签”,有助于估值锚从传统光通信周期股转向AI算力基础设施成长股;第三,客户和产业链信号更清晰——英伟达已对Lumentum和Coherent等光互连供应商进行战略投资并绑定长期采购,康宁也因与英伟达扩产光纤连接产品而大涨,说明AI算力产业链的资本正在从“GPU独霸算力投资主题”扩散到“存储、光学与电力等领域”。

对整个光互连产业链而言,这也是重要催化。它意味着市场开始承认:AI数据中心不是只有GPU、HBM和服务器液冷环节受益,光模块、激光器、光芯片、光纤、OCS与CPO主导的最前沿硅光技术与高速光学互连网络设备正在成为下一轮AI资本开支的核心瓶颈资产。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10