“龙虾热”席卷全球之际 黄仁勋携开源模型炸场! 英伟达(NVDA.US)全栈野心托起“AI牛市叙事”

智通财经
Yesterday

智通财经APP获悉,随着Anthropic推出的Claude Cowork,以及OpenClaw(即所谓的“龙虾”)这类可自主执行任务的AI智能体风靡全球,“AI芯片超级霸主”英伟达(NVDA.US)欲紧抓这波AI代理超级大浪潮,该公司已推出其专为超大规模AI智能体所打造的开源大模型“Nemotron 3 Super”,旨在以可扩展方式运行极度复杂的代理式AI智能系统。在Pinchbench基准测试层面,Nemotron 3 Super可谓一骑绝尘,稳坐开源第一。在OpenClaw任务成功率上,它拿下了85.6%的高分,性能直逼Claude Opus 4.6、GPT-5.4这两大闭源模型。

英伟达最新此举可谓大幅强化这家全球市值最高公司(约4.5万亿美元)从单纯的AI芯片供应商向“模型—工具链—云推理服务—AI生态系统”全栈平台转变趋势,对于英伟达股价而言,可能不久后将再创历史新高且带动全球AI算力产业链迈向新一轮上行轨迹。“英伟达全栈AI雄心壮志”可谓在中东地缘政治局势引发全球股市剧烈震荡之际,竭尽全力撑起“AI牛市叙事”这条资本市场主线。

英伟达官方在一份声明中表示,这一模型结合了最先进的推理能力,能够以高精度高效完成天量级AI任务,适用于企业级自主AI代理系统。

英伟达表示,这一全新的1200亿参数开放模型采用混合专家模型(MoE)架构,融合了三项创新,与上一代Nemotron Super 模型相比,推理性能提升3倍有余,吞吐量最高可提升至5倍,准确率最高可提升至2倍。

英伟达指出,AI搜索领军者Perplexity开始向其用户们提供Nemotron 3 Super,用于AI智能体驱动的系统性搜索,并作为Computer中20个编排模型之一。提供高级软件开发代理的科技公司,比如CodeRabbit、Factory以及Greptile,正在将该模型与其专有AI大模型一同集成到各自的 AI代理服务中,以在更低成本下实现更高准确率以及大幅提高企业经营效率。

据英伟达称,Edison Scientific以及Lila Sciences 等生命科学与最前沿AI研究机构,将利用该旗舰开源模型为其代理模式提供重大支持,用于深度文献检索、数据科学和分子理解等等复杂功能。

英伟达补充称,Amdocs、美国AI+数据分析领军者Palantir(PLTR.US)、EDA芯片设计软件领军者Cadence(CDNS.US),以及来自欧洲的达索系统与西门子这两大老牌巨头,正在积极部署并定制化英伟达该款模型,以实现电信、网络安全、半导体设计和制造等领域工作流程的代理式自动化愿景或者全方位更新迭代订阅式产品。

从模型结构与部署参数看,Nemotron 3 Super不是简单把参数堆到1200亿参数,而是做成了一个更适合企业级agent代理式工作流的“高总参、低激活”体系:总参数120B,推理时仅激活12B,上下文窗口原生支持100万tokens,最小部署门槛为8×H100 80GB。其骨干是 LatentMoE+Mamba-2+少量 Attention的混合架构,并加入2个共享权重的MTP(Multi-Token Prediction)层;在官方技术报告里,这个基座模型共有88层、模型维度4096、32个Q heads、2个KV heads、每层512个experts、Top-k 激活22个experts、MoE Latent Size 1024。

因此,英伟达的这套革新式开源AI智能体模型设计的工程意义很明确:用MoE控制激活开销,用Mamba拉长上下文和吞吐,用Attention保住精确检索与推理稳定性,因此它更像是面向多智能体编排、长链条工具调用、长上下文记忆的“agent orchestration brain”(代理编排主脑),而不是单纯追求单轮对话分数的大模型。

全球最大规模智能手机芯片公司高通(QCOM.US)的首席执行官克里斯蒂亚诺·阿蒙近日在巴塞罗那世界移动通信大会(MWC Barcelona)上表示,即将到来的“人工智能代理”(即AI Agent)超级大浪潮将改变更广泛的数字生态系统。

阿蒙表示,2026年将是“AI代理之年”。“我们将从一个以移动智能手机为中心、以应用程序为中心的数字化生态系统,转向一个以代理为中心的跨时代生态系统,”阿蒙表示。“AI代理将成为中心。它们不只是对你作出回应。它们会观察、会解读、会行动。”

英伟达的野心:不仅要做芯片供应商,还是做“AI基础设施总承包商”

从效率指标看,Nemotron 3 Super的绝对卖点不是绝对精度碾压,而是“在相近精度下,把agent系统的推理吞吐和成本打下来”。NVIDIA 官方技术报告给出的口径是:在 8k 输入/64k 输出设置下,Nemotron 3 Super 的推理吞吐可达GPT-OSS-120B的2.2倍、Qwen3.5-122B的7.5倍;官方博客还称,它相对上一代Nemotron Super 可实现5倍以上级别的吞吐。

英伟达在模型声明中指出,随着全球企业对于AI应用驱动的经营需求逐步超越AI聊天机器人,积极迈向多代理应用,它们面临两项限制。

第一项限制是上下文爆炸。多代理工作流产生的token数量可高达标准聊天的至少15倍,因为每一次交互都需要重新发送完整版历史记录,包括工具输出和中间推理过程。第二项限制是思考税。据该公司声明称,极度复杂的代理必须在每一步都进行推理,但若每个子任务都使用大模型参数,多代理应用就会变得成本过高且响应非常迟缓,企业实际经营中难以实际落地。

英伟达表示,Nemotron 3 Super具有100万token级别的上下文窗口,使代理模式工作流能够在内存中保留完整的工作流状态,并防止目标漂移。该公司补充称,其1200亿参数中,推理时仅有120亿参数处于激活状态。

在多代理式AI智能体工作流中,AI推理任务通常是指运行一个训练工作流彻底完成的AI大模型,以便对全新的、甚至此前未见过的海量数据产生预测或得出推导式结论的过程。

在英伟达的Blackwell平台上,该模型以NVFP4精度运行。这也意味着英伟达将内存需求降至更低水平,并使推理速度最高可达到该公司 Hopper平台FP8的足足4倍,且不会损失任何程度的准确率。

该公司指出,这一模型是基于使用前沿推理模型生成的合成数据进行深度训练。Nemotron 3 Super可通过build.nvidia.com、Perplexity、OpenRouter和Hugging Face以完全开源方式获取。

Nemotron 3 Super本身就是英伟达所释放出的一个很典型的“全栈信号”:它不是单独卖模型,而是把120B总参数 / 12B激活参数、100万级别token 上下文、Blackwell优化、英伟达NIM微服务生态、NeMo微调生态、英伟达云端算力体系与本地化部署合作伙伴放在同一个英伟达主导的软硬件一体化AI生态产品体系里,直接服务极度复杂的agent代理式工作流。英伟达正在把企业核心价值链从“卖AI算力加速卡”扩展到“定义 agent 模型、推理栈、部署路径和企业工作流入口”,其角色越来越像 AI 基础设施总承包商,而不只是芯片供应商。

英伟达表示,AI服务器制造巨头戴尔科技(DELL.US)正将该模型引入Hugging Face平台上的Dell Enterprise Hub,以便在Dell AI Factory 上进行完全本地化部署,从而推进企业多代理AI工作流。英伟达还表示,另一AI服务器领军者慧与科技(HPE.US)也在将Nemotron引入其agents hub,以帮助确保代理式AI在企业中的可扩展落地。

英伟达于去年12月开始推出Nemotron 3系列开源模型。此外,这家美国科技巨头定于下周3月16日至19日举办其全球AI超级大会——英伟达 GPU技术大会(即GTC)。该公司称,从物理AI、AI工厂到代理式AI与推理,GTC 2026将展示正在重塑各个行业的突破式技术进展。

AI GPU+CUDA护城河愈发坚固,英伟达股价直指历史新高?

英伟达在官方博客中称,Nemotron 3 Super 在 PinchBench 全套测试中达到 85.6%,是其口径下“同类最佳开源模型”,在OpenClaw任务成功率上,它更是拿下了85.6%的高分,整体性能直逼Claude Opus 4.6、GPT-5.4。因此,对于英伟达新推出的Nemotron 3 Super而言更准确的定位是:如果一家普通企业需要做复杂多步代理、长流程编排、代码/终端/工具调用混合型工作负载,Nemotron 3 Super 不一定是单点最强,但很可能是当前开源+付费型闭源阵营里最接近“可规模化部署的agent智能体主脑”之一。

就护城河而言,英伟达在创始人黄仁勋带领下,英伟达凭借AI GPU算力体系 + CUDA构筑起来的“超级AI护城河”无疑是因Nemotron 3 Super 重磅问世而变得更坚实。正如上所述,其角色越来越像AI基础设施总承包商,而不仅仅是AI芯片供应商。

根据英伟达官方博客声明,Nemotron 3 Super不只是跑在英伟达GPU平台上效率造,而是被官方明确做成了为Blackwell推理效率和 agent 场景优化的大模型;官方称其相对上一代 Nemotron Super吞吐最高提升5倍、准确率最高提升2倍,在 8k 输入/ 64k输出环境下,吞吐可达 GPT-OSS-120B 的2.2倍、Qwen3.5-122B的7.5倍,且在Blackwell上用NVFP4进行天量级别的推理任务时,相比Hopper FP8可快至 4 倍。这种“模型架构—量化格式—推理框架—旗舰GPU平台”协同,会让CUDA、TensorRT-LLM、NIM、DGX/Blackwell的联动更难被任何变量单点替代。也在说明,英伟达正在把护城河从“单一GPU性能与CUDA壁垒”上移到“模型架构—推理栈—GPU 平台—企业部署”的整套AI系统能力。

华尔街分析师们最近对英伟达的整体态度,随着Nemotron 3 Super 重磅问世,可谓是在边际上转向更加积极看涨立场。Nemotron 3 Super 以及英伟达愈发转向“全栈式AI平台”的大趋势,无疑将共同成为英伟达股价突破此前在10月创下的历史最高点位——即212.167美元的核心催化剂。截至周三美股收盘,英伟达股价收于186.03美元。

来自华尔街金融巨头摩根士丹利的分析师团队近日在英伟达股价经历一段向下调整,且股价持续横盘震荡之际,重申英伟达为半导体板块“首选”股票标的,并且维持“增持”评级与260美元目标价,强调当前乃最佳逢低买入时机。TIPRANKS汇编的华尔街分析师平均股价显示,分析师们普遍看好英伟达股价冲至273美元,意味着在他们看来,英伟达未来12个月上行潜力高达惊人的47%。

大摩最新的渠道调查显示,目前全球“AI算力供需缺口每日以个位数级别大幅扩大”,云计算超级巨头们(Hyperscalers)对AI工作负载的增长依然极其激进。大摩调研显示,即便一部分Hyperscalers客户(比如亚马逊,与Meta)自研AI ASIC或采购 AMD AI GPU算力集群,预计这些超级客户们在2026年对英伟达产品的采购量仍将大幅增长80%以上。

大摩指出,即将到来的GTC 2026大会将展示该公司领先的技术路线图,有效回击市场对份额流失的疑虑;Vera Rubin架构与英伟达在物理AI(Physical AI)领域的最新布局将开辟全新的市场总值(TAM)空间。

当模型规模、推理链路与多模态/代理式Agentic AI工作负载推动算力消耗呈指数型外扩时,科技巨头们的资本开支主线更倾向于向AI算力基础设施集中,全球投资者们更是将围绕英伟达与AMD的新品迭代与AI算力集群交付的“AI牛市叙事”,继续锚定为全球股市中最具确定性的景气投资叙事之一,同时也意味着电力、液冷散热系统、光互连供应链等与AI训练/推理密切相关的投资主题将跟随英伟达、AMD以及博通台积电美光等AI算力领军者们在中东地缘政治局势面临不确定性之际,仍继续位列股票市场最火热投资阵营。

根据机构汇编的最新分析师预期,亚马逊连同谷歌母公司Alphabet、Facebook母公司Meta Platforms Inc.,以及甲骨文公司和微软预计将在2026年的累计人工智能相关资本支出达到大约6500亿美元,还有一些分析师认为整体支出可能超过7000亿美元——意味着同比AI资本开支增幅可能超过70%。值得注意的是,上述的这五大美国超级科技巨头,预计将在2023年至2026年间,为打造无比庞大的AI算力基础设施累计投入约1.5万亿美元;相比之下,这些科技巨头们在2022年之前的整个历史统计期间累计投资约6000亿美元。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10