黄仁勋“述职报告”2026

蓝鲸财经
4 hours ago

文|硅基星芒

周一,黄仁勋穿着标志性的皮衣开启了英伟达2026年的GTC大会。

今年的GTC,和往年有所不同。尽管全世界都在期待更快的GPU,但黄仁勋带来的不是产品发布会,而是一场关于AI时代工业革命的叙述。

英伟达全新的宏大叙事,定义了这场革命的生产资料、生产方式、经济模型,以及驱动一切的硬件基石和操作系统。

短短两个小时,黄仁勋清晰地描述了英伟达的未来和整个AI行业未来的蓝图。

01“AI工厂”的诞生和“推理拐点”的来临

黄仁勋在这场演讲中提出了两个核心判断,作为英伟达的战略基础:

①推理拐点:AI从学习走向工作。

过去的两年中,AI的算力消耗主要集中在训练阶段,各大AI企业都在费尽心思研究如何设计出功能更强大的模型,规模化法则(Scaling Law)也正是在这个阶段生效:模型越大、数据越多,性能就越好。

如今,行业已经结束这个阶段,进入了推理阶段的爆发期,OpenClaw等产品的爆发让AI模型被大规模地实际应用。

按照黄仁勋的说法,推理所需的计算量可能达到训练所需的数万倍甚至数十万倍。

无论是ChatGPT、Gemini还是DeepSeek、豆包,每一次日常交流、每一次代码生成都是一次复杂的推理。

因此,即使前沿大模型推陈出新的周期开始放缓,GPU需求仍然在持续暴涨。

而OpenClaw作为一款有极大安全风险的开源产品在全世界爆火,更是说明我们现在看到的增长,必然只是冰山一角。

②AI工厂经济学:定义新世界KPI

推理的拐点到来之际,黄仁勋也给出了数据中心的新经济模型:

Token将会成为新产品,数据中心不再是用于存储数据的成本中心,而是生产智能的利润中心,也就是所谓的“AI工厂”。

算力会成为新的货币,与token正向关联。

而新的KPI指标,则是每瓦特电力能够产生的token数量。

在美国,电力仍然是所有数据中心的最终物理瓶颈。最大化每瓦电力的token产出就等同于最大化收入。

通俗而准确的解释,不仅使AI行业抽象的专业词汇更加具象化,还将从CEO到开发者的思维都牢牢吸引到了英伟达最具优势的赛道上。

在这套新的经济范式下,英伟达的野心已经显露:它掌握着大量的货币,不愿意只给淘金的人卖铲子,而是要打造整套“工厂蓝图”和“生产线”。

02“AI工厂”的核动力:硬件基石

英伟达最大的优势就是算力,除了Google靠着自研TPU硬是打出了一片天地,世界上绝大部分企业仍然受制于英伟达的GPU供给。

推理需求的爆发,就意味着“AI工厂”需要消耗前所未有的能源。

值此之际,英伟达推出了宣传已久的Vera Rubin。

相比以前GTC展示的单块GPU,Vera Rubin是一台机架级的超级计算机。

本质上,它是一个极致垂直整合的产物,集成了新一代GPU、专为AI代理任务设计的CPU、新一代网络、新一代存储等七颗关键芯片,并结合液冷技术和精密协同设计,共同封装在一个机架之中。

自此,英伟达的交付单位,已经从芯片跃升到即插即用的计算系统。

除此之外,这次GTC大会还有另一项技术惊喜,也就是Groq LPU技术整合。

英伟达已经注意到现阶段的AI计算需求开始呈现极端化的趋势:

一是高吞吐量,Vera Rubin擅长进行海量并行计算,适合处理批量任务;

二是超低延迟,Groq LPU有极快的单次响应速度,这是交互式应用的关键。

英伟达的解法,是在软件层面上将所需的两种能力“分而治之”,高强度的数学运算放在Vera Rubin上,对延迟极度敏感的token生成环节则交给Groq,这一解决方案将高价值交互应用的性能足足提升了35倍。

AI工厂的产出,远不止数字世界的token。

在黄仁勋看来,具身智能(Embodied AI)这个更广阔的物理世界大有可为。

但仅凭现实世界中的数据,想训练机器人应对所有突发的陌生情况,恐怕永远都不够。

解决方案就藏在他提出的新经济模型中:算力就是货币,货币就能带来数据。

通过仿真平台生成海量高质量的合成数据,在虚拟世界中训练AI,再部署到现实世界中的机器人中。这套Sim-to-Real的路径,或许就是解决机器人智能化的关键。

当然,盲目的技术乐观主义不可取,目前的AI模型基础能力尚不足以支撑具身智能商业化落地。

不过,无论是通用的机器人基础模型GR00T,还是具备思考和推理能力的自动驾驶模型Alpamayo,都证明了英伟达正在将“AI工厂”提供的生产力投入到了价值50万亿美元的制造业和汽车业。

03“AI工厂”的大脑:Dynamo 1.0

强大的“核反应堆”Vera Rubin已经诞生,接下来的问题就是如何让它像小龙虾一样7×24小时高效运转。

这个问题的答案,同样藏在软件层面。英伟达在GTC大会同期发布的Dynamo 1.0技术博客,正式将驱动“AI工厂”的大脑公开于众。

Dynamo是一个专门为大规模、多节点、企业级AI推理而设计的软件框架。如果Vera Rubin是token的硬件生产线,那Dynamo就是生产线的控制器。它虽然不直接生产token,但却保证了生产流程的效率、速度和稳定性。

具体来说,Dynamo在以下四个方面实现了不同程度的技术突破:

1.在Vera Rubin平台上,Dynamo可以通过解耦服务等技术将模型的推理请求处理能力提升约7倍,直接提升了核心的“KPI指标”;

2.AI从Chatbot进化到Agent后,智能体的工作流运作需要经过多轮对话、后台思考、调用工具等复杂流程。而Dynamo具备“智能体感知”能力,能够通过智能体提示(Agent Hints)理解任务的优先级,优先处理关键任务,将智能体应用的首次响应时间降低4倍;

3.现代AI应用普遍需要频繁启动新模型实例,但传统方式下加载、编译和优化模型耗时费力。Dynamo的ModelExpress技术通过检查点恢复和模型权重流式传输等方法,将新实例的启动时间加快7倍,“AI工厂”的生产将会更加灵活;

4.部署大模型对大部分人来说门槛仍然太高,Dynamo的DGDR功能允许开发者只提供模型、硬件和流量等目标,系统即可自动完成性能分析、配置和部署。

Dynamo的推出,完美印证了英伟达的领先已经不再局限于硬件层面,还有深不可测的软件和系统工程能力。

04英伟达的生态战略

综上所述,英伟达通过GPU构建起来的护城河,如今已经延伸到了生态战略。

在演讲中,黄仁勋将OpenClaw这个开源智能体框架比作AI时代的Linux,并判断它会成为下一代的操作系统,且必将开启一个全新的“智能体即服务”的时代。

此前的文章中我们曾提到过一个名为NemoClaw的平台产品,如今已经正式发布。英伟达的目标只有一个:让自己成为这场技术革命的标准制定者和安全守护者,让所有企业都能放心加入这场养虾浪潮。

同样的策略也放在了智能体底层的基础模型上。通过成立Nemotron联盟,英伟达联合了Mistral、Perplexity等知名AI公司,试图共同打造下一代基础模型。如此一来,AI生态的软件将与英伟达的硬件实现更深层的绑定。

这也正是黄仁勋的高明之处:

从芯片(Rubin)、系统(机架)、网络(NVLink)、软件(Dynamo)、操作系统(NemoClaw)到AI模型(Nemotron),英伟达在每一个环节都实现了深度自研和极致协同设计。

这种垂直整合的模式带来的,是竞争对手难以比拟的性能和效率。

与此同时,英伟达也并未试图独吞市场。

与各大云厂商和AI初创公司合作,表面上是“赋能所有人”,“给云厂商带来客户”,实则是将自己的技术栈嵌入全球的计算平台,使整个生态系统都建立在英伟达的底层技术之上。

未来如果回顾2026年的GTC,或许它就是一个时代的转折点。

英伟达构建了一个以token为商品、以算力为货币、以“AI工厂”为核心生产单位的全新经济循环。

在这个循环中,英伟达有最高效的生产工具、最智能的生产管理系统,甚至定义了生产标准。

它不再是一家GPU供应商,而是AI基础设施与经济体构建者。

未来的“卡脖子”,只会更紧。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10