【券商聚焦】美银证券上调AI数据中心TAM至1.7万亿美元 看好英伟达等龙头

金吾财讯
Yesterday

金吾财讯 | 美银证券于2026年5月13日发布研报,大幅上调人工智能数据中心系统2030年总可寻址市场(TAM)预期至约1.7万亿美元,此前预估为1.4万亿美元,年复合增长率达45%。

该机构认为,尽管市场对资本支出可持续性存疑,但2026年AI销售与投资回报将加速,2027年新架构有望提升代币经济学效率,关键AI计算、网络与内存供应商将保持增长。从细分领域看,AI加速器TAM从1.0万亿美元上调至1.2万亿美元,主要因超大规模云厂商定制ASIC(如谷歌TPU、AWS Trainium)出货增加;数据中心服务器CPU TAM从约800亿美元上调至1100亿美元(其中AI CPU为880亿美元);AI网络TAM从约2400亿美元上调至3160亿美元,受益于光模块与交换机持续升级。

内存方面,HBM TAM预计从2025年的350亿美元增长至2030年的1680亿美元,每颗加速器搭载的HBM容量将从目前约187GB提升至464GB。研报指出,AI计算正从训练转向推理,内存容量与带宽成为新的瓶颈,尤其是长上下文、高并发的多步骤推理场景。代理型AI工作流产生的token数量是聊天的10倍至1000倍,推动计算需求持续扩张。此外,内存供给弹性因资本、封装、电力等限制而结构性下降,DRAM与NAND的供需充足率在2028年前不会持续高于110%,价格周期将弱于历史。 

在个股方面,美银证券将英伟达(NVDA)目标价从300美元上调至320美元,维持行业首选,催化剂包括即将发布的财报、Computex展会潜在新品、Vera Rubin平台推出及下半年现金回报;博通(AVGO)获谷歌Meta框架合同,2027财年确定性增强,AI销售有望超过市场预期的1100亿美元;美光科技(MU)目标价从500美元大幅上调至950美元,基于分部估值法,其中传统DRAM/NAND业务估值710美元/股(3.1倍2027年市净率),AI HBM业务估值245美元/股(27倍2027年市盈率);超威半导体(AMD)目标价从450美元上调至500美元,关注CPU强劲与7月分析师日;迈威尔科技(MRVL)目标价从125美元上调至200美元,基于800G/1.6T光模块持续增长及定制芯片需求,预计2028财年每股收益可达7.80美元。 

风险方面,研报提示AI基础设施支出若未能持续兑现收入,或面临供应链瓶颈、电力短缺及地缘政治扰动。但当前超大规模云厂商的剩余履约义务(RPO)合计超5000亿美元,且经营性现金流可覆盖未来2-3年资本开支,预计2026-2027年云计算自由现金流利润率将接近零甚至微负,2028年转正至2%左右,投资强度仍属可持续。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10