【2026投资展望-电子】沿主线,买缺口 | 智库

新财富杂志
Feb 22

  AI硬件重点看好AI芯片方向,国产算力在解决产能供给瓶颈后,伴随国内互联网公司持续提升的AI算力需求以及自上而下的国产化目标,有望迎来“从1到10”的业绩放量,核心公司具有较大弹性。

  存储芯片供给端扩产周期长、产能弹性有限,导致供需严重失衡,进而推动存储价格大幅上涨。这一趋势预计将在未来1—2年内持续,为存储产业链带来显著的业绩弹性。

  AI大模型要真正触达消费者,必须依托高效的端侧入口。当前最具潜力的两大终端形态为智能手机与AI眼镜

01

AI硬件:升级迭代加速

  云端算力基建维持高景气,大厂资本开支强劲,北美及中国头部云厂商(CSP)2025―2026年资本开支指引乐观,主要用于AI服务器、数据中心和网络基础设施,因此带动硬件升级迭代加速:AI服务器技术规格快速演进(如英伟达Rubin架构),带动PCB印刷电路板,高阶技术路线包括高端HDI/SLP,即高密度互连板/类载板)、光模块、液冷系统等配套硬件的需求量和价值量双升。

  重点看好AI芯片方向,从图形处理器(GPU)向专用集成电路(ASIC)演进,降本成为核心驱动力。当前AI服务器中价值占比最高的部分是GPU,其成本约占整机的80%―90%。过去两年,尤其是2024年以来,AI应用重心正从训练阶段加速向推理阶段迁移,芯片架构也逐步由通用型GPU转向专用型ASIC。

  这一转变的核心动因在于显著的成本优化。以英伟达高端GPU为例,单颗售价约10万美元以上;而谷歌通过自研TPU(张量处理单元),可将推理成本降低约50%。正因如此,全球科技巨头纷纷布局自研AI芯片谷歌的TPU已支撑其大模型在全球保持领先地位,而博通作为TPU的主要设计方,市值在近两年增长2―3倍,目前已达1.5万亿美元。

  相比之下,中国AI芯片龙头企业寒武纪当前市值仅约5000亿元人民币,远低于英伟达的4万多亿美元。差距并非源于市场规模或设计能力,而主要受限于先进制程制造环节。国产AI芯片高度依赖台积电等海外代工厂,在先进工艺节点上面临“卡脖子”问题,导致产品迭代速度滞后。因此,以中芯国际为代表的本土晶圆代工企业正加速布局先进制程产能,其营收已实现持续快速增长,成为国产替代的关键支点。

  展望2026年,国产算力在解决产能供给瓶颈后,伴随国内互联网公司持续提升的AI算力需求,以及自上而下的国产化目标,有望迎来“从1到10”的业绩放量,核心公司具有较大弹性。

02

存储:需求爆发叠加供给紧张,价格持续上行

  服务器第二大价值组成部分是存储系统。近年来,AI服务器和数据中心建设推动存储需求呈爆炸式增长。国内头部互联网厂商资本开支强劲,AI服务器出货量年增速普遍超过30%;若按英伟达的乐观预测,未来几年AI服务器复合增长率有望达到50%。在此背景下,存储需求同步高速增长。

  根据TrendForce数据,我们预计2026年全球八大CSP(云计算服务商,包括美系四巨头谷歌、亚马逊Meta微软及中国的阿里巴巴百度腾讯等)的资本开支将飙升至6020亿美元,同比增长40%。其中,约60%将用于服务器及相关ICT基础设施,这意味着仅CSP的服务器支出就将达到3612亿美元。在全球服务器市场中,CSP贡献近59%的采购额,其需求动向已成为整个市场的风向标我们不能忽视这一核心引擎的强劲拉动力。

  此外,我们测算出服务器存储市场规模将同步水涨船高。在服务器BOM成本(物料清单成本)中,存储芯片(DRAM+NAND+HDD,即“动态随机存取存储器+闪存+硬盘”)的价值量占比已稳定在25%―27%。基于上述CSP支出,并考虑非CSP领域(企业、政府等)约20%的需求增速,我们推算2026年全球服务器存储采购金额将达到1376亿美元,同比增长31%。值得注意的是,这一数字尚未计入因供需紧张可能带来的价格上涨因素,实际市场规模有望更高。

  我们深入剖析了AI推理三大范式升级如何重构存储需求的底层逻辑。

  KVCache多层缓存成为标配:为降低大语言模型(LLM)推理时延与算力成本,业界普遍采用“HBM(热点计算)+DRAM(层级缓存)+SSD(冷数据/长周期缓存)”的三级架构。这使得DRAM与SSD不再是被动的数据仓库,而是主动参与计算流程的关键环节,其配置容量被显著放大。

  对话范式从“自答”走向“协作”:链式推理(CoT)、多Agent(智能体)协同、工具调用等复杂交互模式日益普及,单次任务的词元(Token)消耗量从千级跃升至万级,带来10倍量级的数据读写需求。这要求我们的存储系统能高效、低成本地承载中间态与历史态数据。

  媒介从“文本”迈向“多模态”:视频、音频等内容的生成与理解,其时空Token密度远超纯文本,对HBM带宽、DRAM容量及SSD持续扩容能力提出更高要求尤其在冷数据缓存、检索索引等方面,SSD展现出最强弹性。

  这些趋势共同指向一个结论:我们正进入一个“存储即性能”的时代,存储不再只是配套,而是决定AI系统效率与成本的核心变量。

  然而,存储芯片供给端扩产周期长、产能弹性有限,导致供需严重失衡,进而推动存储价格大幅上涨。这一趋势预计将在未来1―2年内持续,为存储产业链带来显著的业绩弹性。

  面对汹涌需求,我们观察到存储原厂并未盲目扩产,而是采取“技术优先、聚焦高端”的战略,将有限产能向AI数据中心倾斜,导致通用产品供给相对宽松,而AI专用高端产品供给极度紧张。

  在DRAM领域,我们看到制程迭代正在加速。行业正从1a节点快速向1b、1c演进,其中1b将在2026年成为主力,1c则率先用于HBM4芯片等顶级产品。具体来看,三星已与英伟达敲定HBM4供应协议,并通过P4、P5工厂扩建及旧产线改造,大幅提升1c、HBM4产能,同时削减1a产能转向1b。SK海力士采用1b制程生产HBM4,并计划将1c产能扩大8倍以满足AI客户,更宣布将于2026年4月停产DDR4,将全部产能转向HBM与DDR5。美光则将1β、1b工艺用于HBM4,1γ、1c用于DDR5、LPDDR5X,并逐步覆盖全产品线。这些动作清晰表明,原厂的战略重心已完全转向AI驱动的高价值DRAM,通用DRAM的供给增长极为有限。

  在NAND领域,我们同样看到结构性倾斜。3DNAND层数已迈入“300+时代”(如SK海力士为321层),单Die(单个NAND闪存芯片)容量与晶圆产出效率大幅提升。但厂商策略高度聚焦:三星重启Z-NAND研发,目标是提供性能比传统NAND高15倍、功耗低80%的AI优化产品;SK海力士推出专属“AI-NAND”家族;美光则果断退出移动UFS5(通用闪存存储第五代标准)与消费级SSD业务,新工厂(台湾A5、日本广岛)全力聚焦HBM,同时推出基于G9-NAND的企业级SSD。

  由此可见,NAND供给也在向高密度、高性能的数据中心SSD集中,消费级与移动级产品线被战略性收缩。这种“高端紧、低端松”的格局,正是“硬缺口”形成的关键原因。

03

AI终端入口:

手机与AR眼镜将成为关键载体

  AI大模型要真正触达消费者,必须依托高效的端侧入口。当前最具潜力的两大终端形态为智能手机与AI眼镜

  智能手机:苹果被视为AI手机的核心引领者。其首款AI手机将于2025年进入第二代产品周期,并在2026年迭代至第三代,标志着AI手机进入创新爆发期。

  AI眼镜:Meta是该领域的先行者。其AI眼镜销量从2023年不足200万台,跃升至2024年约500万台,预计2025年将突破2000万台。Meta正积极推进多款AI硬件产品的发布与生态建设,市场前景广阔。

  巨头纷纷布局,苹果、Meta、阿里、字节等科技巨头正加速将AI能力下沉至手机、可穿戴设备(尤其是AI眼镜)等终端。

  硬件载体明确,AI手机和AI眼镜被视为中短期最重要的端侧AI落地场景,有望催生新的硬件创新浪潮和供应链机会。

  终端设备需兼顾性能、成本与用户体验,因此对芯片能效比、系统集成度及工业设计提出更高要求,也为产业链上下游带来新的增长机遇。

(文章来源:新财富杂志)

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10