光模块的“最大对手”--CPO何时才能真正量产?

华尔街见闻
Apr 10

共封装光学技术被视为传统光模块的潜在颠覆者,但其大规模量产之路远比市场预期漫长。

据Digitimes报道,在云端AI基础设施升级浪潮的驱动下,共封装光学(CPO)技术的商业化进程持续受到市场密切关注。英伟达是目前推进CPO量产最为积极的企业,自2025年起持续向供应商施压,要求其具备量产能力。

然而,据供应链方面的信息,2026年CPO相关产品的实际量产规模依然十分有限,大规模铺开仍需时日。

制约CPO量产的核心瓶颈在于良率。要使CPO在AI数据中心实现规模化部署,生产良率必须达到足够高的水平,其成本效益才能超越现有解决方案。这一问题目前已被整个产业链公认为最大障碍。

良率瓶颈制约规模化,量产进展不及预期

尽管云端AI厂商寄望于引入硅光子(SiPh)技术,同步提升成本效率与算力性能上限,但供应链现实与市场期待之间仍存在明显落差。

从供应链角度来看,2026年CPO相关产品的实际量产规模极为有限,距离广泛铺开仍有相当距离。生产与验证环节的高难度导致良率仍有较大提升空间,而只有良率达到足够高的水平,CPO的成本效益才能真正超越现有方案。这一良率问题目前被产业链各方普遍认定为规模化落地的最大瓶颈。

CPO供应链参与者指出,若非云端AI升级的迫切需求带动了对CPO技术的大规模投入,相关技术突破的时间线可能会大幅延后。从这一角度而言,英伟达的主动推动对整个生态系统产生了显著的正向带动效应。

英伟达最为激进,博通与Marvell相对保守

在主要芯片厂商中,英伟达是推进CPO部署最为强势的玩家。自2025年起,英伟达持续敦促供应商准备量产能力,并向客户强调CPO为其系统架构带来的显著算力优势,对供应商形成了较大压力。供应链消息人士预计,英伟达的量产推进节奏将超越其他厂商。

博通在CPO领域深耕多年,目前已开始向客户进行初步出货。Marvell Technology与联发科(MediaTek)同样对该技术有所布局。不过,据供应链消息,博通与Marvell在推广各自CPO方案方面相对不那么激进。

CPO相关厂商强调,无论最终由哪家企业率先突破,市场需求将持续增长,芯片厂商及生态系统合作伙伴均将从中受益。当前阶段,限制行业增长的唯一因素,仍是供给侧的产能与良率天花板。

此外,从需求端来看,云端AI基础设施的持续扩张为CPO技术提供了清晰且强劲的市场驱动力。硅光子生态系统迫切希望看到实质性的营收贡献,云端AI厂商亦有动力通过采用SiPh技术突破现有算力与成本的双重约束。

然而,决定CPO能否真正成为光模块"终结者"的关键变量,已从需求侧转移至供给侧。产能爬坡与良率提升的速度,将直接决定CPO技术从实验室走向数据中心大规模部署的时间表。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10