服务器CPU,颠覆前夜?

蓝鲸财经
Yesterday

文|半导体产业纵横

当凭借驱动AI的专用GPU赚得盆满钵满的英伟达宣布“看好CPU赛道的潜力。”当Vera Rubin平台带着36颗Vera CPU与72颗GPU的配置亮相,当国际机构集体预判CPU供需缺口将持续扩大,一个明确的信号已然浮现:AI算力的核心叙事逻辑,正在从“GPU单极主导”向“CPU+GPU协同共生”演进。

 CPU的重要性,不亚于GPU

黄仁勋对CPU的押注,绝非临时起意,在过去很长一段时间中,英伟达都对PC市场充满渴望。

早在2011 年的CES上,英伟达正式公布Project Denver(丹佛计划),宣布基于 ARM 架构开发定制CPU 核心。之后在2014年与2018年,英伟达陆续发布移动处理器Tegra K1、用于自动驾驶与边缘计算Carmel CPU 核心等。

2021年4月英伟达发布基于Arm架构的Grace CPU,标志着这家GPU巨头正式杀入服务器CPU战场。Grace并非传统意义上的通用处理器,而是专为AI、HPC(高性能计算)和大规模数据处理而设计的“加速型CPU”。

近日,Meta宣布与英伟达公司达成新的采购协议,将购买数百万颗英伟达下一代Vera Rubin图形处理器和同等数量的Grace中央处理器,以支持其人工智能发展战略。据悉,Meta已经是英伟达最大的客户之一,多年来一直在使用英伟达的GPU,但这项新协议表明两家公司将建立更深层次的合作伙伴关系。值得注意的是,Meta还承诺大量采购英伟达的Grace CPU,并将其作为独立芯片部署,而不是与GPU配合使用。

英伟达表示,Meta将成为首家独立部署Grace CPU的公司,从明年开始,还将部署下一代Vera CPU。值得注意的是,Vera CPU是英伟达推出的新一代AI芯片,属于其自研Arm架构CPU系列,于2026年1月6日在CES 2026上官宣,并预计于2026年3月16日至19日在GTC 2026上正式发布,计划于2026年下半年开始向微软等首批客户交付。该芯片旨在为下一代大模型训练与推理提供支持 。

在此前的拉斯维加斯消费电子展上,黄仁勋还表示:"英伟达跻身全球顶级CPU制造商行列不会令人意外。"

在AI算力被GPU刷屏的这几年,市场很容易形成一个惯性认知:AI = GPU。但走到2026年,一个被云厂商、大模型公司用真金白银验证的结论正在成为共识:CPU在数据中心的重要性,丝毫不亚于GPU。

为什么过去几年行业只追捧GPU,却把CPU当成 “配角”?核心原因很简单:AI还处在 “训练为王” 的阶段。2023—2025年,行业重心是把大模型 “训出来”,比拼的是极致并行算力、矩阵乘法效率,GPU凭借架构优势,天然成为训练阶段的绝对主角。此时CPU只承担基础调度、数据搬运等辅助工作,自然不被舆论聚焦。

但从2025下半年到2026年,AI产业完成了一次关键范式切换:从训练为主,转向推理、执行、规模化落地为主。Agent、RAG、工具调用、多模态交互、强化学习环境搭建…… 这些商用化场景,不再是单纯的并行计算,而是大量逻辑判断、串行执行、系统调度、I/O 管控、内存调度、任务分发。这些恰恰是GPU的短板、CPU的主场。

行业数据已经给出答案:在典型 Agent 工作流中,CPU处理延迟占比高达90%,成为端到端性能的头号瓶颈。过去“堆 GPU 就能提效” 的逻辑彻底失效 ——CPU跟不上,GPU利用率就上不去;CPU规格不够,集群就开不满。2026 年开年Intel、AMD服务器CPU集体涨价、产能被抢空,正是这一趋势的直接体现。

目前英特尔和AMD的CPU普遍缺货,服务器CPU交货周期最长可达6个月,消费级CPU也面临延迟和涨价。英伟达选在这个节点重兵投入服务器CPU,既是补全自身全栈算力版图,也是直击 x86 阵营的供给软肋。它的逻辑非常清晰:

不做通用CPU,而是为AI集群量身定制,和GPU、DPU、高速互联深度协同;

解决行业最痛的问题:CPU瓶颈导致GPU利用率上不去、集群跑不满;

用一体化方案,对冲当前x86 CPU缺货、交付不稳定的风险。

这也意味着,数据中心算力竞争正式从“单芯片比拼” 进入 “全系统较量”。

CPU缺货了,格局也变了

再看一下当前服务器CPU市场的竞争格局。

过去二十年,服务器CPU市场几乎被英特尔和AMD牢牢掌控。凭借成熟的x86指令集、庞大的软件生态以及与操作系统、中间件的高度兼容性,x86架构成为企业级市场的默认选择。尤其在通用计算、数据库、虚拟化等场景中,x86 CPU的综合优势无可替代。

但这一双寡头格局正加速生变,英特尔长期以来的主导地位持续承压,AMD 则凭借技术突破实现份额稳步攀升。

上图显示,截至2025年,AMD在服务器市场的出货份额已接近30%,而英特尔虽仍占据主导地位,但份额较高峰期有所回落。这一变化源于多重产业因素,而非单一技术优劣。

业内人士向半导体产业纵横表示:

首先,客户需求正在分化。

超大规模云服务商对高核数、高能效、高I/O带宽的需求快速上升。AMD自EPYC系列起采用Chiplet(小芯片)架构,结合台积电先进制程,在96核以上产品上实现较快落地,契合了部分云厂商对“每瓦性能”和横向扩展能力的偏好。但这并不意味着AMD毫无短板。该人士表示:“AMD的Chiplet小芯片架构,虽然能快速堆核心数,但不同小芯片之间的通信延迟偏高,这是它一直以来的问题。”业内人士补充道,而英特尔的优势恰恰在这里——核电通信延迟低,再加上多年积累的软件和硬件生态,适配性更好,这也是它在当前AI浪潮中能稳住份额的关键。

其次,价格策略,则成为AMD撬动市场的另一把“钥匙”。

“整体来看,AMD的服务器CPU价格会比英特尔略低,尤其是在渠道市场,AMD的策略更激进。”业内人士透露,AMD对老型号产品会给出大幅折扣,导致市场上充斥着高性价比的旧款AMD CPU,而英特尔则坚持稳健的价格控制,不轻易降价。这种价格差异,也让不同客户群体做出了不同选择。互联网大厂和主流服务器厂商,更看重技术迭代,会紧跟英特尔的新品节奏,优先采购最新款或上一代产品;而广大中小客户、渠道装机市场,更在意性价比,大量选用AMD的旧型号产品。除此之外,工控、IoT、边缘端等细分领域,虽有部分客户仍在使用老旧产品,但这部分市场对整体格局的影响相对有限。

最后,供应链策略差异也正在显现。

作为长期占据行业龙头的英特尔,曾凭借自主制造体系(IDM模式)稳稳握住技术主动权,但2021年前后,其制程工艺的迭代突然“慢了下来”。从而导致新品推出节奏明显脱节,比AMD慢了半拍甚至一拍,很多客户等不及,就转头选择了AMD的新品。”业内人士解释道。

反观AMD,走了一条与英特尔截然不同的路——放弃自主制造,全部交由台积电代工。这一选择恰好踩中了先进制程的风口,从7nm到如今的3nm,AMD紧跟台积电的工艺节奏,产品性能和能效比一路提升。不过近几年,英特尔 18A 制程工艺日趋成熟,正逐步削弱制程层面带来的性能差距。

对于市场普遍关注的“未来5-10年,AMD是否能拿下半数的数据中心x86 CPU市场”的疑问,业内人士给出了明确答案:“大概率不会。”在他看来,双方的优势领域已经形成互补,且难以相互替代。

“AMD的高核心数适合云计算、大数据这类规模化场景,而英特尔的低延迟和成熟生态,在AI、金融科技等高端领域不可替代。”他进一步分析,如今英特尔的制程已经基本回归先进水平,短板主要在产品设计上,目前也在不断优化产品理念,应对AMD的竞争;而AMD则需要解决延迟问题,同时补齐软件生态的短板,才能进一步提升份额。

CPU市场的变量,不止英伟达

除却英伟达,CPU底层架构的博弈正悄然重塑服务器市场的长期格局。

此前x86架构在全球服务器CPU市场占有率同样高达90%,然而根据市场研究机构Dell'Oro Group最新报告,2025年第二季度,ARM架构处理器在服务器CPU市场份额已达到25%,相比去年同期的15% 大幅提升了10个百分点。 这一显著增长主要得益于英伟达基于ARM架构的Grace平台的大规模交付,以及大型科技企业定制芯片的加速部署。

比如,亚马逊网络服务凭借其Graviton系列开创了超大规模ARM服务器处理器,首次发布于2018年。该公司认识到,在其数据中心运行的大部分工作负载不需要x86处理器提供的最大单线程性能,但将从改进的能效和成本效益中获益巨大。到2024年,AWS表示其大约一半的新CPU部署使用Graviton处理器而不是x86芯片。

谷歌随后推出了其Axion处理器,于2024年宣布,声称与同类x86处理器相比功耗降低百分之六十,同时为典型云工作负载提供同等性能。

究其原因,首先,传统x86架构在高负载下往往伴随显著的能源消耗,而ARM通过精简指令集与更高效的芯片设计,在同等算力下大幅降低单位能耗,为云服务提供商节省了持续性的运营成本。其次,其灵活的许可模式则彻底打破了芯片授权的垄断逻辑——云厂商无需支付高额授权费用,即可自由定制处理器架构,深度适配自身工作负载,将算力从"通用适配"升级为"场景定制"。这种模式不仅重构了芯片创新的参与门槛,更让云服务从"购买硬件"转向"定义算力",真正实现按需优化。最后,低成本优势则进一步消除了算力普及的障碍,使云服务在经济性上更具竞争力。

不止是ARM架构,基于 RISC-V 架构的服务器 CPU 也在迅速“破圈”。RISC-V架构有着开源、指令精简和可扩展的优势,在注重能效比的物联网领域收获颇丰。不过,这并不意味着RISC-V无法进军有更高性能要求的PC和服务器市场。

关于RISC-V 架构的优势,笔者总结主要有四点:

第一点,它是开源的,这意味着它自主可控。第二点,它是可定制化的,如此便十分契合专用服务器的定制化需求。第三点,它的成本更低,目前RISC-V IP核的授权费和版税只有ARM的1/3-1/4。如果采用RISC-V方案,能很大程度降低芯片、服务器厂商的成本。第四点,RISC-V存在一些独特的性能优势,比如其有能力在单位面积上提供更高性能和核数,这使其在有着高效能需求的AI等应用中更加高效。

如今,已有多家公司的RISC-V架构服务器CPU芯片亮相。比如阿里巴巴的玄铁RISC-V CPU,以及睿思芯科的全自研高性能RISC-V服务器芯片等。

阿里云无影事业部总裁张献涛曾表示“我觉得经过5-8年的发展,未来在服务器里面的大规模应用应该是不成问题的。很多公司对它的期待很高,一定会加速进程往前发展的。RISC-V架构从低功耗IoT终端大规模应用到数据中心,大概5-8年内就能实现。”

微核芯CEO郇丹丹表示高性能计算场景才是打开RISC-V市场空间的关键。“过去RISC-V大多都是面向AIoT领域,低成本低性能领域已经是红海市场,作为新兴指令集的RISC-V产业要想发展壮大,只有伴随着数据中心在高性能领域(服务器、AI计算)的新兴应用成长才是打开市场空间的关键。”

如今,英伟达携Grace、Vera CPU重兵入局,ARM架构凭高能效与定制化优势快速崛起,RISC-V则以开源之力打破垄断壁垒,曾经由x86双寡头主导的格局被彻底打破。随着AI产业从“训练为王”转向“推理落地”,CPU的核心价值愈发凸显,算力竞争也从单芯片比拼升级为全系统较量。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10