AI算力扩张推高互连需求 Evercore看好多家半导体厂商前景

智通财经
Feb 23

投行最新调研显示,AI算力基础设施中的网络与光学互连仍是系统扩展的关键瓶颈,相关厂商有望在收入与利润端持续受益。

智通财经APP获悉,Evercore表示,其针对AI工程师开展的渠道调研结果,对英伟达(NVDA.US)、博通(AVGO.US)、Astera Labs(ALAB.US)、迈威尔科技(MRVL.US)以及MACOM Technology Solutions(MTSI.US)构成利好,并重申对上述公司的“跑赢大盘”评级。

Evercore由Mark Lipacis领衔的分析团队指出,与20位AI工程师的调研确认了其判断,无论在供给还是速度层面,连接性仍是AI系统的核心制约因素。能够在规模化条件下交付解决方案的厂商,将在未来一段时间内享受需求增长带来的顺风。“各家超大规模云厂商的策略和供应链并不相同,但整体调研结果对上述公司均偏正面。”

英伟达方面,分析师称,公司正推进与Rubin Ultra发布节奏相匹配的共封装光学版NVLink交换机,目标时间在2027年下半年,尽管部分业内人士认为更可能推迟至2028年。团队认为,PCIe和以太网存在从NVLink手中获取份额的可能,NVLink仍将凭借更优性能占据高端定位。英伟达已自研1.6T(太比特/秒)数字信号处理器(DSP),预计可满足内部约50%的需求,其余将由博通提供。

博通方面,Evercore预计其电吸收调制激光器(EML)产能将从2025年的约4300万-4400万只提升至2026年的5000万只;连续波(CW)激光器产能则将从2025年的1500万-1600万只扩至2026年的3000万只。分析师补充称,非博通交换机在支持线性驱动可插拔光模块(LPO)方面面临挑战;公司1.6T DSP被视为行业标杆,Meta Platforms的1.6T DSP需求预计大部分将由博通承接。

Astera Labs方面,Evercore表示,亚马逊(AMZN.US)的Trainium-3预计在三种SKU中有两种采用阿斯特拉的Scorpio X交换机,第三种为无交换机方案。分析师认为,阿斯特拉正逐步被视为成熟供应商,而非初创企业。

威尔科技方面,团队称,谷歌(GOOG.US,GOOGL.US)的1.6T DSP需求预计将全部由迈威尔供应,在800G DSP领域,迈威尔份额约70%,博通占余下30%。迈威尔被认为在1.6T TIA性能及新型封装架构方面具备优势。此外,分析师指出,Celestial AI被视为迈威尔更广泛战略的一部分,旨在更有力地与博通竞争,打造一站式的ASIC全栈设计合作能力。

MACOM Technology Solutions方面,渠道信息显示,公司在1.6T光电探测器(PD)领域持续提升市占率。1.6T PD单价约2.5-3美元,显著高于800G PD的0.5-0.6美元。Evercore预计,麦康有望拿下50-60%的1.6T模块市场,其余份额由博通、GCS及SiFotonics等厂商分享。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10