出品 | 網易智能
作者 | 小小
編輯 | 王鳳枝
3月16日,加州聖何塞,逾一萬八千名聽衆見證了英偉達年度GTC大會的開幕。黃仁勳在兩個多小時的密集發布中,揭示了AI市場最核心的轉變:從「訓練」全面走向「推理」 。基於此,他拋出了一個震撼的預期——到2027年底,Blackwell與Vera Rubin兩代架構將帶來至少一萬億美元的累計收入機會 。

為應對推理時代的巨大算力缺口,英偉達打破了單芯片處理的傳統,將推理拆分為兩步分工處理:第一階段「預填充」(把自然語言轉為token)由下一代旗艦處理器 Vera Rubin 負責;第二階段「解碼」(根據token生成答案)則交由新整合的 Groq 芯片專門負責 。這種搭配使得每瓦特性能實現了幾十倍的躍升 。其中,專注於低延遲計算的 Groq(已命名為Groq 3 LPU)預計今年下半年就會出貨 ;而 Vera Rubin 系統的高價值層級性能比上一代Grace Blackwell高出了十倍,預計2026年下半年出貨 。
在更長遠的硬件規劃上,黃仁勳預告了代號為 Kyber 的下一代架構。它將144個GPU垂直集成在計算托盤上,旨在進一步提高密度、降低延遲,預計將應用於2027年出貨的 Vera Rubin Ultra 。此外,他還暗示了繼 Rubin 之後的長遠產品線——以物理學家命名的 Feynman 芯片 。此外,英偉達的野心已不僅限於地球,他們宣佈與Axiom Space等公司合作推出 Vera Rubin Space-1 模塊,正式開啓「軌道數據中心」計劃,進軍太空AI計算 。
除了硬覈算力的升級,這場變革同樣席捲了軟件生態。面對火爆的開源項目OpenClaw,黃仁勳形容其重要性堪比Linux和HTML 。它不僅能讓AI智能體調用工具、分解任務並自主執行 ,更標誌着軟件架構的重塑。為了確保企業級應用的安全可控,英偉達順勢推出了 NemoClaw 參考設計 。
「今天,世界上的每家公司都需要有一個OpenClaw戰略,一個智能體系統戰略。這是新的計算機。」 黃仁勳強調,傳統的SaaS將全面進化為「智能體即服務(GaaS)」 。在未來的企業運轉中,為每位工程師配備「年度token預算」,將成為推動生產力十倍增長的新標配 。

以下是黃仁勳演講全文,共2.5萬字,小標題為編輯所加

算力平台基石
CUDA二十年飛輪與神經渲染融合
歡迎來到GTC。我想先提醒大家,這是一個技術會議。
一大早大家就排起了長隊。很高興在這裏見到各位。
GTC,我們要談技術,談平台。英偉達有三個平台。
各位可能以為我們主要只談其中一個,就是與CUDA X相關的平台。我們的系統是另一個平台,現在又多了一個新平台,叫做「AI工廠」。
這些我們都會談到,最重要的是,我們還要談生態系統。但在開始之前,我要感謝幾位暖場環節的主持人,他們做得非常出色,包括AI投資公司Conviction創始人郭睿、紅杉資本合夥人林君叡(英偉達的第一位風險投資人),還有科技投資人加文·貝克(Gavin Baker,英偉達的第一家主要機構投資者)。這三位對技術有很深的理解,對當下行業動向洞若觀火,而且在技術生態系統中的覆蓋面非常廣。還有我親自挑選來參加今天活動的所有VIP,全明星陣容。感謝各位。
也要感謝所有來參會的公司。
英偉達是一家平台公司,如各位所知。我們有技術,有平台,有豐富的生態系統。今天,總規模高達100萬億美元的行業,基本上百分之百都匯聚於此。有450家公司讚助了這次活動。感謝各位。
1000場技術會議,2000位演講者。這次會議將覆蓋AI這個「五層蛋糕」的每一層——從土地、電力和機房外殼(shell)等基礎設施,到芯片、平台、模型,當然最後也是最重要的,是那些能讓這個行業真正起飛的應用。
這一切都始於CUDA。今年是CUDA誕生20周年。
我們在CUDA上深耕已有20年。20年來,我們一直專注於這個架構。這是一項革命性的發明,叫做SIMT(單指令多線程)。你只需編寫標量代碼,它能衍生出多線程應用。最近我們又增加了Tile結構,幫助開發者為張量核心編程,這些數學結構是當今AI的根基。
我們有數千種開源的工具、編譯器、框架和庫。公開的項目大概有幾十萬個。CUDA已經真正融入了每一個生態系統。
這張圖基本上描述了英偉達的全部戰略。歸根結底,最難實現的就是最底層的這個東西:裝機量。我們花了20年,現在全球有數億顆運行CUDA的GPU和計算系統。我們在每一個雲中,在每一家計算機公司裏,服務着幾乎每一個行業。
CUDA的龐大裝機量就是飛輪加速的原因。裝機量吸引開發者,開發者創造新算法,實現突破,比如深度學習,還有很多其他突破。這些突破帶來全新市場,圍繞它們形成新的生態系統,吸引其他公司加入,又創造了更大的裝機量。這個飛輪正在加速。英偉達軟件庫的下載量呈爆炸式增長,規模非常大,而且比以往任何時候增長得都快。正是這個飛輪,讓這個計算平台能夠支撐這麼多應用、這麼多新突破。
但最重要的是,它也讓這些基礎設施擁有極長的使用壽命。原因很簡單:能夠在CUDA上運行的應用太多了。我們支持AI生命周期的每一個階段,服務於每一個數據處理平台,加速各種不同類型的基於科學原理的求解器。
應用範圍如此之廣,一旦你採用了英偉達GPU,它的使用壽命會非常長。這也是為什麼我們大約六年前出貨的Ampere架構GPU,在雲中的價格不降反升。所有這一切之所以可能,根本上是因為裝機量大,飛輪轉得快,開發者覆蓋廣。當這一切發生,再加上我們持續更新軟件,計算成本就會下降。
加速計算極大地提升了應用程序的運行速度。同時,我們在其生命周期內持續維護和更新軟件,你不僅在第一次使用時能獲得性能提升,隨着時間推移,還能持續享受加速計算帶來的成本降低。我們願意維護、願意支持全球每一塊這樣的GPU,因為它們都是架構兼容的。我們之所以願意這樣做,是因為裝機量非常大。如果我們發布一個新的優化,它能使數百萬顆GPU受益,造福全球每個人。
這種動態組合使得英偉達的架構能夠擴大覆蓋範圍,加速增長,同時降低計算成本,最終又進一步刺激了新的增長。所以CUDA是這一切的核心。但我們的旅程實際上始於25年前——GeForce。
我知道各位中有很多人是玩着GeForce長大的。GeForce是英偉達最成功的營銷活動。早在你自己還負擔不起的時候,我們就開始吸引你這位未來的客戶了。你的父母付了錢,讓你成為英偉達的客戶。他們年復一年地為你買單,直到有一天,你成為了一名出色的計算機科學家,成為了真正的客戶、真正的開發者。
但這一切都是GeForce在25年前打下的基礎。我們從那裏起步,一路走到CUDA。25年前,我們發明了可編程着色器。這是一個在當時完全看不出發明必要性的想法:讓加速器變得可編程。世界上第一個可編程加速器——像素着色器,就出現在25年前。正是它引導我們不斷深入探索。
5年後,我們發明了CUDA。這是我們做過的最大的投資之一,當時我們其實根本負擔不起。它消耗了公司絕大多數的利潤,但我們還是讓CUDA搭乘GeForce的便車,進入了每一台電腦。我們全身心投入創建這個平台,因為我們強烈地感受到了它的潛力。最終,正是公司對它的執着,儘管起初困難重重,但我們日復一日地堅信它,歷經13代產品、20年光陰,現在我們讓CUDA變得無處不在。
像素着色器當然帶來了GeForce的革命。然後10年前,我們推出了RTX,為現代計算機圖形時代徹底重新設計了架構。GeForce將CUDA帶向了世界,也因此讓亞歷克斯·克里舍夫斯基 (Alex Krizhevsky)、伊利亞·蘇茨克維 (Ilya Sutskever)、傑弗裏·辛頓 (Geoffrey Hinton) 、吳恩達 (Andrew Ng)以及許多其他人發現,GPU可以幫助他們加速深度學習。這引發了AI的大爆炸。
10年前,我們決定融合可編程着色,並引入兩個新想法:一個是光線追蹤,包括硬件光線追蹤,這極其困難;另一個在當時是個新想法——大約10年前,我們就認為AI將徹底改變計算機圖形。就像GeForce將AI帶給世界一樣,現在AI將反過來徹底改變計算機圖形的整個運作方式。今天,我要向各位展示未來的方向。這是我們下一代圖形技術,我們稱之為神經渲染,即3D圖形與AI的融合。它就是DLSS 5。
計算機圖形活過來了,我們把可控的3D圖形、結構化數據與生成式AI、概率計算結合在一起。一個是完全預測性的,另一個是概率性的但高度逼真。我們把這兩個想法結合起來,通過結構化數據實現完美控制,同時又進行生成。結果是,內容既驚豔美麗,又完全可控。
這種融合結構化信息和生成式AI的概念,會一個行業接一個行業地重演。結構化數據是可信任AI的基礎。

數據基礎設施
cuDF/cuVS核心庫與雲端生態整合
你們聽說過SQL、Spark、Pandas、Velox,以及許多非常重要的大平台,比如Snowflake、Databricks、Amazon EMR、AzureFabric、Google CloudBigQuery。所有這些平台都在處理數據幀。這些數據幀是巨大的電子表格,裝載着生活中的所有信息。這是結構化數據,也是商業的事實基準,是企業計算的事實基準。
為了讓AI能夠處理數據,我們必須把數據處理的速度提升到極致。過去,就算不加速也能應付過去,當然我們也會想辦法提升結構化數據的處理速度,這樣就能處理更多數據、成本更低、每天運行的次數更頻繁,讓整個公司的運轉更加同步。
但未來,這些數據結構是要給AI用的,而AI的處理速度比人類快得多。未來的智能體也會使用結構化數據庫。當然還有非結構化數據庫和生成式數據庫,這些數據庫涵蓋了世界上絕大部分的信息。每年生成的信息中,大約有90%是非結構化數據。
直到現在,這些數據對世界來說基本是沒用的。我們讀了,存進文件系統,然後就束之高閣了。沒辦法查詢,很難進行搜索,處理起來非常麻煩。原因在於非結構化數據很難建立索引,你得理解它的含義和用途纔行。
所以現在我們要讓AI來做這件事。就像AI能夠解決多模態感知和理解的問題一樣,你可以用同樣的技術去讀取PDF,理解它的含義,然後基於這個含義把它嵌入到一個更大、可以搜索和查詢的結構中。
為此,英偉達創建了兩個基礎庫。就像我們為3D圖形領域打造了RTX一樣,我們為數據幀和結構化數據打造了cuDF,為向量存儲、語義數據、非結構化數據和AI數據打造了cuVS。這兩個平台未來將成為最重要的兩個平台。
看到這兩個庫在整個網絡、在這個複雜的全球數據處理系統中被廣泛採用,我特別興奮。因為數據處理這個領域已經存在很長時間了,因此有這麼多不同的公司、平台和服務。我們花了很長時間才真正深入集成到這個生態系統中。我對我們在該領域所做的工作感到非常自豪。
今天我們還要發布幾項重要進展。
首先是IBM。作為SQL的發明者——SQL是有史以來最重要的領域特定語言之一——IBM正在用cuDF加速他們的Watson X Data平台。回顧歷史,60年前IBM推出了System/360,這是通用計算的第一個現代平台,開啓了整個計算時代。隨後誕生的SQL作為一種聲明式語言,讓人們無需一步步指示計算機就能查詢數據,再加上數據倉庫的出現,這些都奠定了現代企業計算的基石。而今天,IBM和英偉達正在用GPU計算庫加速IBM Watson X Data的SQL引擎,為AI時代重塑數據處理方式。
數據是賦予AI背景和意義的事實基準。AI需要快速訪問海量數據,但傳統基於CPU的數據處理系統已經跟不上這個需求了。
舉個例子,雀巢每天要處理幾千個供應鏈決策。他們的「訂單到現金」數據集市,彙集了全球185個國家和地區所有的供應訂單和交付事件。過去在CPU上,雀巢每天只能刷新數據集市幾次。現在用了加速後的、運行在GPU上的Watson X Data,他們能以5倍的速度運行同樣的工作負載,成本降低了83%。這說明面向AI時代的加速計算平台已經到來。
英偉達不僅在雲端加速數據處理,也在加速本地部署的數據處理。戴爾作為全球領先的計算機系統製造商和存儲供應商,正與我們合作創建戴爾AI數據平台。這個平台集成了cuDF和cuVS,為AI時代打造了加速的數據基礎設施。他們與NTT Data合作的項目已經實現了性能的大幅提升。
再看Google Cloud,我們與Google Cloud有着長期的合作關係。我們正在加速Google的Vertex AI,現在也開始加速BigQuery——這是一個非常重要的框架和平台。與Snapchat的合作項目顯示,我們幫他們把計算成本降低了近80%。
當你加速數據處理、加速計算時,你不僅能獲得速度的提升、規模的增長,更重要的是還能獲得成本的優勢。所有這些好處融為一體。
過去,這種進步來自摩爾定律——每幾年性能翻一番。換句話說,在價格基本不變的情況下,計算機要麼每兩年性能翻倍,要麼計算成本減半。如今摩爾定律已經走到盡頭,我們需要新的方法來實現持續的性能提升和成本優化。
加速計算讓我們能夠實現這些巨大的性能飛躍。而且,隨着我們不斷優化算法,加上我們廣泛的覆蓋範圍和龐大的裝機量,我們可以持續為全球每個人降低計算成本、擴大規模、提升速度。這裏還是以Google Cloud為例,各位可以看到我剛纔提到的模式。
英偉達構建了一個加速計算平台,上面運行着一系列軟件庫。我舉了三個例子:RTX是其中之一,cuDF是另一個,cuVS是第三個。這些軟件庫都構建在我們的平台之上。但我們最終要集成到全球的雲服務和原始設備製造商中,並與其他平台一起,觸達整個世界。這種模式將會一次又一次地複製。這只是一個例子。英偉達和Google Cloud合作,我們加速Vertex AI,加速BigQuery。我為我們與JAX XLA的合作感到自豪。我們在PyTorch上表現卓越,是世界上唯一在PyTorch和JAX XLA上都表現如此出色的加速器。
我們支持的客戶,比如Baseten、CrowdStrike、Puma、Salesforce——他們不是我們的直接客戶,但他們是我們的開發者。我們已經將英偉達技術集成到他們的系統中,最終落地到雲上。我們與雲服務提供商的關係,本質上是我們把客戶帶給它們。我們集成軟件庫,加速工作負載,把這些客戶帶到雲中。所以,正如各位所見,大多數雲服務提供商都喜歡與我們合作,他們總是要求我們把下一個客戶放到他們的雲上。我想告訴各位,客戶數量很多。我們將加速所有人。會有很多很多客戶能夠落地到你們的雲中,請耐心等待。
此外,我們與AWS合作已久。今年我特別興奮的一件事是,我們將把OpenAI帶到AWS。這將推動AWS上雲計算的大量消耗,擴大OpenAI的覆蓋範圍和計算能力。如各位所知,OpenAI目前完全受限於計算能力。在AWS上,我們加速EMR,加速SageMaker,加速Bedrock。英偉達與AWS的集成非常深入。AWS是我們的第一個雲合作夥伴。
接下來是Microsoft Azure。英偉達的A100超級計算機——我們製造的第一台超級計算機是給自己用的,而第一台安裝就落地在Azure上。那次合作促成了與OpenAI的巨大成功。我們與Azure合作已久。我們現在加速Azure雲,並與他們的AI Foundry深度合作。我們加速必應搜索,在Azure區域上與微軟合作。這個領域非常重要,因為我們正在全球範圍內持續擴展AI。
我們提供的一項關鍵能力是機密計算。在機密計算中,你要確保即使是操作員也無法看到你的數據,無法觸碰或看到你的模型。英偉達的GPU是世界上第一個實現這一點的。現在,它能夠支持機密計算,並保護OpenAI和Anthropic這些極具價值的模型在雲端和不同地區的部署,這都歸功於我們的機密計算能力。機密計算非常重要。舉個例子,Synopsys是我們很好的合作伙伴。我們正在加速他們所有的EDA和CAE工作流程,並落地在Microsoft Azure上。
我們是甲骨文的第一個AI客戶。大多數人可能會以為我們是他們的第一個供應商——我們的確是他們的第一個供應商,但我們同時也是他們的第一個AI客戶。我很自豪,當年是我第一次向甲骨文解釋了AI雲的概念,然後我們成了他們的第一個客戶。自那以後,甲骨文真正起飛了。我們在那裏落地了一大批合作伙伴,包括CoreWeave和Fireworks AI,當然還有OpenAI與CoreWeave的合作。CoreWeave是全球第一個AI原生雲。這家公司成立的唯一目的,就是為了迎接加速計算時代,提供GPU託管,託管AI雲。他們擁有非常出色的客戶,增長驚人。
我相當興奮的另一個平台是Palantir和戴爾的組合。我們三家公司聯手,使得建立一個全新類型的AI平台成為可能,即Palantir的本體論平台和AI平台。我們可以在任何國家、任何隔離區域、完全本地部署、完全現場部署、完全在野外部署這些平台。如果沒有我們的機密計算能力,如果沒有我們構建端到端系統的能力,以及提供從數據處理(無論是向量還是結構化數據)一直到AI的整個加速計算和AI軟件棧的能力,這一切都不可能實現。
我想向各位展示這些例子,這正是我們與全球雲服務提供商的特殊合作關係。他們全部都在這裏。我能在展台巡視時看到他們,這令人非常興奮。感謝各位的辛勤工作。
英偉達是一家垂直整合、但在水平層面保持開放的公司。之所以必須這樣,原因很簡單:加速計算不是芯片問題,也不是系統問題。加速計算這個詞其實省略了一個部分,那就是「應用加速」。如果我能讓一台計算機運行所有程序都快,那叫CPU。但那已經無法持續了。未來要繼續實現應用程序的巨大加速、持續降低成本,唯一的方法是通過特定應用或特定領域的加速。這就是為什麼英偉達必須一個軟件庫接一個軟件庫、一個領域接一個領域、一個垂直行業接一個垂直行業地推進。
我們是一家垂直整合的計算公司。沒有別的辦法。我們必須理解應用程序,必須從根本上理解算法。我們必須弄清楚如何在任何期望的場景中部署算法,無論是在數據中心、雲端、本地、邊緣,還是在機器人系統中——所有這些計算系統都不相同。最後纔是系統和芯片。我們與任何你希望我們集成的平台合作,將英偉達技術集成進去。我們提供軟件,提供軟件庫,與你們的技術集成,將加速計算帶給全球每個人。
這次GTC就是對此的一個很好展示。 在座的各位代表了英偉達的生態系統,包括我們供應鏈的上游和下游。非常令人興奮的是,去年我們整個上游供應鏈,不管是成立50年的公司、70年的公司,還是有一家150年曆史的公司,現在都成了英偉達供應鏈的一部分,與我們合作。去年各位都度過了創紀錄的一年,對吧?祝賀各位。
我們正在做一件大事。而這,正是一件極其重大的事件的開端。

垂直行業賦能
CUDA X軟件庫與AI原生公司爆發
大家可以看到,加速計算的計算平台我們已經奠定了基礎。但要真正激活這些平台,我們還需要針對特定領域的軟件庫,去解決每一個垂直領域中至關重要的核心問題。現在,我們正在服務每一個領域。
拿自動駕駛汽車來說,我們的覆蓋範圍、廣度和影響力,已經達到了令人難以置信的程度。我們有專門的會議探討這個領域。在金融服務領域,算法交易正從傳統機器學習加人工特徵工程,轉向用超級計算機研究海量數據,讓系統自行發現洞察和模式。這個領域正在經歷自己的深度學習和Transformer時刻。
醫療健康也在經歷自己的ChatGPT時刻。我們在該領域有一些非常令人興奮的工作,有很出色的專題演講。我們探討用於藥物發現的AI物理學或AI生物學,用於客戶服務和輔助診斷的AI智能體,當然還有物理AI和機器人系統。所有這些不同方向的AI,都有各自不同的平台,而英偉達都提供支持。
在工業領域,我們正在完全重置並啓動人類歷史上最大規模的建設。全球大多數正在建設AI工廠、芯片廠、計算機廠的行業,今天都有代表在這裏。媒體和娛樂(當然也包括遊戲),我們擁有實時AI平台,可以支持翻譯、廣播、直播遊戲和直播視頻,其中很大一部分內容都將被AI增強。
在量子領域,這裏有35家不同公司與我們合作,共同構建下一代量子-GPU混合系統。零售和消費品行業,人們正在使用英偉達技術進行供應鏈管理,創建生成式購物系統,構建用於客戶支持的AI智能體,這是一個價值35萬億美元的行業,大量工作正在進行。
機器人技術是製造業中價值50萬億美元的行業,英偉達在這個領域已經耕耘了十年,構建了三台計算機——這是構建機器人系統所必需的基礎計算機。我們實際上與全球所有知名的機器人制造公司都有合作。本次展會上有110個機器人蔘展。
電信行業規模大約和全球IT行業相當,約2萬億美元。基站無處不在,是全球最大的基礎設施之一。它是上一代計算的基礎設施,但即將被徹底重塑。原因很簡單:過去的基站只做基站這一件事,而未來它將成為一個運行AI的基礎設施平台。AI將在邊緣運行。所以會有很多精彩的討論。我們在這個領域的平台叫Aerial或AI-RAN。我們正在與諾基亞、T-Mobile和其他許多公司展開大規模合作。
回到我們業務的核心,我剛纔提到的所有東西都建立在計算平台之上,但非常重要的一點是,我們的CUDA X軟件庫。CUDA X軟件庫是英偉達發明的算法,我們本質上是一家算法公司。這正是我們的獨特之處。這種能力讓我能夠進入每一個上述行業,想象未來,讓全球最優秀的計算機科學家去描述問題、解決問題、重構問題、重新表達問題,然後將其轉化為軟件庫。
我們已經取得了非常多的成果,我想本次展會我們發布了大概七十個軟件庫,也許還有四十個模型。我們一直在更新它們。這些軟件庫是我們公司皇冠上的明珠。正是它們,讓那個計算平台真正被激活,去解決實際問題,去創造深遠影響。
我們創造過的最重要、最重大的軟件庫之一是cuDNN,即CUDA深度神經網絡軟件庫。它徹底改變了AI領域,引發了現代AI的大爆炸。
早在20年前,我們構建了CUDA,一個用於加速計算的單一架構。今天,我們徹底改變了計算。一千個CUDA X軟件庫幫助開發者在每個科學和工程領域取得突破。cuOpt用於決策優化,cuLitho用於計算光刻,cuDSS用於直接稀疏求解器,cuEquivariance用於幾何感知神經網絡,Aerial用於AI-RAN,Warp用於可微物理,ParaBricks用於基因組學。它們的核心是算法,而且它們很美。
各位剛纔看到的一切都是模擬。其中一些是基於原理的求解器,即基礎物理求解器。其中一些是AI智能體模型,AI物理模型。還有一些是物理AI機器人模型。一切都是模擬的。沒有任何東西是手工動畫的,沒有任何動作是人工擺拍的。這就是英偉達從根本上在做的事。正是通過對算法的理解與我們計算平台的連接,我們才能開啓這些機會。
這就是CUDA X。剛纔各位看到了一大批公司,比如沃爾瑪、歐萊雅這些非常成熟的頂尖企業,還有摩根大通,這些都是定義了當今社會的公司。豐田也在其中。這些都是全球最大的公司。同時,還有一大批各位可能從未聽說過的公司,我們稱之為AI原生公司——數量衆多的初創企業。
在這個列表裏,有一大批全新的公司。各位可能聽說過其中幾個,比如OpenAI、Anthropic。但除此之外,還有更多服務於不同垂直領域的公司。過去兩年發生了一些重大變化,尤其是去年。我們與AI原生公司合作已久,但去年這個領域突然爆發了。我想解釋一下為什麼。
這個行業迎來了爆發,有1500億美元的風險投資湧入初創公司,這是人類歷史上規模最大的一輪投資。這也是第一次,投資規模從過去的幾百萬、幾千萬美元躍升到幾億甚至幾十億美元。原因是,這是歷史上第一次,每一家這樣的公司都需要計算能力,而且需要非常、非常多的計算能力。
它們需要海量的token。它們要麼需要自己創建和生成token,要麼需要集成並增值由Anthropic、OpenAI等公司創造的現有token。所以這個行業在很多方面都不同以往,但有一點很清楚:它們正在產生的影響,以及它們已經在交付的令人難以置信的價值,都是相當切實的。AI原生公司的興起,這一切都是因為我們重塑了計算。
就像個人電腦革命時期、互聯網革命時期或移動雲時代一樣,催生了無數新企業。每一個時代都有自己的標誌性公司,而我們正在談論的正是這個時代啱啱發生的一個重大變革。在這一代,我們同樣迎來了自己的一大批非常、非常特別的公司。
我們重塑了計算。按理說,必然會有一大批新的重要公司湧現,那些對未來世界有重大影響的公司。像Google、Amazon、Meta這樣的公司,正是上一次計算平台轉變的結果。而我們現在,正處於一個新平台轉變的開端。

範式轉變
推理工作負載的激增與Token經濟
我要重點強調三件事。
首先,ChatGPT當然開啓了生成式AI時代。它不僅能理解、感知,還能翻譯和生成,創造出獨特的內容。我剛纔給大家展示了生成式AI與計算機圖形的融合,它讓計算機圖形變得栩栩如生。各位,全球每個人都該用ChatGPT。我每天早上都在用,今天早上也用了不少。ChatGPT開啓了生成式AI時代。
第二,生成式計算與我們過去做計算的方式完全不同。生成式AI是軟件的一種能力,但它深刻地改變了計算的完成方式。過去的計算是基於檢索的,你需要什麼就去查找什麼;而現在是生成式的,系統自己創造內容。大家在聽我談論這些時如果記住這點,就會意識到,為什麼我們做的所有事情都會改變計算機的架構方式、提供方式、構建方式,乃至計算的整個意義。
生成式AI,那是2022年底到2023年的事。接下來是推理式AI,從o1模型開始,然後隨着o3真正起飛。推理能力讓它能夠反思,能夠自己思考,能夠計劃,能夠把一個它無法理解的問題分解成它能理解的步驟或部分。它可以基於研究得出結論。o1讓生成式AI變得可信賴、基於事實,這讓ChatGPT徹底起飛了。那是一個非常、非常重要的時刻。要達到好的效果,所需的輸入token數量,以及為了推理而生成的輸出token數量,都大大增加了。當然你可以有更大的模型,o1模型稍微大了一點,但大不了太多,然而它用於理解上下文的輸入token,以及用於思考過程的輸出token,極大地增加了計算量。
然後是Claude Code,第一個真正的智能體模型。它能夠讀取文件、編寫代碼、編譯、測試、評估,然後返回迭代結果。Claude Code徹底改變了軟件工程。各位都知道,英偉達現在所有人都在使用Claude Code,或者通常是三個工具的組合——Claude Code、Codex、Cursor。今天,沒有一位軟件工程師不是在一個或多個智能體的幫助下編寫代碼的。Claude Code開創了這個轉折點,而且是第一次。
現在我們不再只是問AI「什麼、在哪裏、什麼時候、怎麼樣」這些基礎問題。我們開始讓它去創造、執行、構建。它學會了使用工具:接入你的上下文環境、讀取文件。它能智能地把複雜問題拆解開來,一步步推理、反思,最終不僅找到答案,還能實際執行任務。一個能夠感知的AI,變成了能夠生成的AI,然後又變成了能夠推理的AI,現在變成了能夠工作的AI——而且是極富效率的工作。
過去兩年,計算需求的增長幅度之大,在座各位都很清楚——對英偉達GPU的需求已經高得離譜了。現貨價格飛漲,就算想找一塊GPU也找不到。但與此同時,我們出貨了巨量的GPU,需求卻還在持續上升。這背後是有原因的:一個根本性的轉折正在發生。最終,AI能夠從事有生產力的工作了,因此推理的轉折點已經到來。
AI現在必須思考,要思考就必須推理;AI現在必須行動,要行動就必須推理;AI必須閱讀,要閱讀就必須推理。AI的每一個部分,每一次它都需要思考、需要推理、需要行動、需要生成token。現在已經過了單純訓練的階段,進入了推理的領域。所以推理的轉折點已經到來,而此時所需的token量、計算量,相比之前增加了大約一萬倍。
現在我把這些結合起來看:過去兩年,工作的計算需求增加了一萬倍,使用量大概增加了一百倍。人們聽我說過,我相信過去兩年計算需求實際增加了100萬倍。這是我們所有人的感受,是每個初創公司的感受,是OpenAI或Anthropic的感受。如果能有更多算力,他們就能生成更多token,收入就會增加,更多人能夠使用,AI就能變得更先進、更智能。我們現在正處於那個正向循環的飛輪系統中。我們已經到了那個時刻。推理的轉折點已經到來。
去年這個時候,我站在這裏,說我們看到了大約5000億美元的、置信度非常高的需求,以及到2026年的Blackwell和Rubin採購訂單。我不知道各位有沒有同感,但5000億美元是極其龐大的收入,但似乎沒人感到驚訝。我知道各位為什麼不驚訝——因為各位所有人都度過了創紀錄的一年。
而今天,在去年GTC之後僅僅一年,我站在這裏要告訴各位的是:我們現在看到了到2027年至少一萬億美元的市場機會。這聽起來合理嗎?這就是我接下來要談的內容。事實上,我們的供應還會跟不上需求。我確信實際的計算需求會比這高得多。這背後是有原因的。
首先,去年我們做了大量工作。2025年無疑是英偉達的推理之年。我們要確保不僅在訓練和後期訓練方面做得好,而且在AI的每一個階段都做到極致。這樣,大家對我們基礎設施進行的投資,就能夠儘可能長久地擴展使用。英偉達基礎設施的使用壽命會很長,因此長期來看成本會非常低——能夠使用得越久,分攤下來的成本就越低。我毫不懷疑,英偉達系統是你能夠獲得的、用於AI基礎設施的全球成本最低的系統。
所以第一部分是:去年整個行業聚焦於推理AI,正是這一點推動了這個轉折點。同時,我們也很高興去年Anthropic加入了英偉達生態,Meta也選擇了英偉達。作為一個整體,這些合作伙伴代表了全球AI計算能力的三分之一。此外,開源模型已經接近前沿水平,而且確實已經無處不在。
英偉達今天是全球唯一一個能夠運行每一個AI領域的平台,覆蓋所有這些AI模型——無論是語言、生物學、計算機圖形、計算機視覺、語音、蛋白質、化學還是機器人領域,無論是在邊緣還是在雲端,無論使用什麼語言。英偉達的架構適用於所有這些領域,我們在每一個領域都表現卓越。這使我們成為成本最低、最值得信賴的平台。
當各位考慮構建這些系統時,就像我說的,一萬億美元是一個極其龐大的基礎設施投入。你必須完全確信,投入的這一萬億美元能夠得到充分利用,性能優異,成本效益極高,而且在你所能預見的未來,你在英偉達上的基礎設施投資能夠擁有長久的使用壽命。只有這樣,你才能滿懷信心地投入。我們現在已經證明,這是全球唯一一個你可以放心去任何地方建設的基礎設施。你想放在任何雲裏,我們樂意;想放在本地,我們高興;想放在任何國家、任何地方,我們都樂意支持你。我們現在是一個能夠運行所有AI的計算平台。
現在來看我們的業務結構。大約60%來自超大規模雲服務商,主要是前五大超大規模雲服務商。但即使在這前五家裏,也有一部分是內部AI消耗,比如推薦系統正從傳統的基於表格、協同過濾、內容過濾的方式,轉向深度學習和大型語言模型。搜索也在經歷同樣的轉變。幾乎所有這些超大規模工作負載,現在都在轉向英偉達GPU極其擅長的工作負載。
除此之外,因為我們與每一個AI實驗室合作,因為我們加速每一個AI模型,因為我們與龐大的AI原生公司生態系統緊密相連,我們可以將這些公司帶到雲端——不管投資規模多大、多快,這些算力都會被消耗掉。這部分佔了我們業務的60%。
另外40%則無處不在:區域雲、主權雲、企業、工業、機器人、邊緣、大型系統、超級計算系統、小型服務器、企業服務器。系統的數量,令人難以置信。AI的多樣性也正是它的韌性所在。AI覆蓋之廣,賦予了它這種韌性。毫無疑問,這不是一個單一應用的技術。這現在是根本性的變革,絕對是一個新的計算平台轉折點。
那麼,我們的工作就是持續推進技術。去年我提到的最重要的事之一是,去年是我們的推理之年。我們全力以赴。我們冒了巨大的風險,在Hopper架構正處在巔峯、表現正好的時候,決定徹底改造它。我們認為Hopper架構的NVLink連通數(NVLink 8)必須再上一個台階。於是我們完全重新架構了整個系統,徹底分解了計算系統,創造了NVLink 72。它的構建方式、製造方式、編程方式都徹底改變了。Grace Blackwell NVLink 72是一個巨大的賭注,對任何人都不容易,包括在座我的許多合作伙伴。感謝各位的辛勤工作。
此外,NVFP4是一種完全不同類型的張量核心和計算單元。我們現在已經證明,用NVFP4進行推理沒有任何精度損失,但性能和能效獲得了巨大提升。我們也能用NVFP4進行訓練。所以,NVLink 72、NVFP4、Dynamo的發明、TensorRT-LLM,還有一大堆新算法相繼問世。我們甚至建造了一台超級計算機來幫助我們優化內核,優化整個軟件棧。我們稱之為DGX Cloud。我們投入了數十億美元的超級計算能力,幫助我們創建內核和軟件,使這一切成為可能。
所有的成果彙集到了一起。過去曾有人跟我說:Jensen,推理太容易了。但實際上,推理是終極難題,也是至關重要的,因為它直接驅動各位的收入。這就是最終的結果。這是來自SemiAnalysis的一份報告,是有史以來範圍最廣、最全面的AI推理基準測試。
各位請看左邊——這個軸是每瓦特生成的token數。這很重要,因為每個數據中心、每個工廠本質上都受功耗限制。一個1吉瓦的工廠永遠不會變成2吉瓦,這是物理定律。所以,對於那個1吉瓦的數據中心,你希望驅動最大數量的token,也就是那個工廠的產出。所以你希望處在那條曲線的頂端,越高越好。
X軸代表的是推理的交互性,也就是速度,即AI響應你的快慢。速度越快,你當然可以更快地響應。但更重要的是,推理速度越快,意味着你可以運行更大的模型、處理更長的上下文、生成更多的思考token——而這個,本質上決定了AI的智能程度。所以X軸,其實就是AI的吞吐量,也是AI的智能水平。
但請注意:AI越智能,吞吐量反而會下降。這很合理,對吧?因為思考需要更長的時間。所以這個軸就是速度。我稍後還會回到這裏。這非常重要,可能有點折磨人,但它太重要了。各位看着吧,未來全球的每一位CEO,都將以我即將描述的方式來審視他們的業務,因為這就是你們的token工廠,這就是你們的AI工廠,這就是你們的收入來源。未來毫無疑問就是這樣。所以,這個是吞吐量,這個是智能。
對於給定的數據中心功耗,每瓦性能越好,吞吐量就越高,你就能生產越多的token。而另一邊則是成本。你會注意到,英偉達擁有全球最高的性能。這本身可能不讓人意外。真正讓人震撼的是一代產品中提升的幅度。
按照摩爾定律,過個幾年性能就能翻倍,一代產品通過晶體管升級,大概能帶來1.5倍的性能提升。你可能預期下一代產品比HopperH200高出1.5倍。但沒人能預料到會高出35倍。我去年這個時候說,英偉達的Grace Blackwell NVLink 72在每瓦性能上提升了35倍。沒人相信我。後來SemiAnalysis發布了報告,Dylan Patel有一句話。他指責我有所保留(sandbagging)。他說:「Jensen有所保留,實際是50倍。」他沒有說錯。因此,我們的每token成本是全球最低的,你根本無法擊敗它。
我以前說過:如果你的架構不對,即使免費,也不夠便宜。因為無論發生什麼,你都得建一個1吉瓦的數據中心,一個1吉瓦的工廠。而那個1吉瓦的工廠,在15年的折舊期內,分攤下來的成本大概要花400億美元——就算什麼都不放進去,這也是400億美元的投入。所以,你最好確保在這個設施裏放最好的計算機系統,這樣你才能獲得最低的token成本。英偉達的token成本是世界級的,目前基本上無人能及。之所以能做到這一點,靠的是極致的軟硬件協同設計(co-design)。所以我挺高興他們給了我們這個稱號——曾有一位猴王(Monkey King),現在有了Token之王。
就像我告訴各位的,我們將所有的軟件進行垂直整合,但水平開放。我們把所有的軟件和技術,以任何可能的方式打包,集成到全球的推理服務提供商中。這些公司增長太快了。比如Fireworks AI,Lin(林君叡)今天也在這裏。他們就是增長得如此之快,去年增長了一百倍。它們是token工廠——對它們來說,工廠的有效性、性能和token生產成本就是一切。
這就是發生的事情。我們更新了他們的軟件,用的還是同樣的系統。你看他們的token速度:令人難以置信的差距。在英偉達更新所有算法、所有軟件、以及我們帶來的所有技術之前,平均每秒大概處理700個token;之後接近5000,提高了7倍。這就是極致協同設計的驚人力量。
我之前提到過工廠的重要性。這就是工廠的重要性。你的數據中心,過去是存放文件的地方,現在變成了生成token的工廠。而你的工廠,無論如何都是受限的。每個人都在尋找土地、電力和機房外殼。一旦建好,你就受制於電力了。在那個電力受限的基礎設施裏,你最好確保你的推理——因為你知道推理就是你的工作負載,token是你的新商品,計算是你的收入來源——你最好確保未來的架構是儘可能優化的。
未來,每一個雲服務提供商(CSP)、每一家計算機公司、每一家雲公司、每一家AI公司——實際上,就是每一家公司——都會思考它們的token工廠的運營效率。這就是各位未來的工廠。我之所以知道這一點,是因為這個房間裏的每個人都由智能驅動;而未來,這種智能將由token來增強。

硬件架構路線圖
Vera Rubin系統與Groq集成
讓我帶各位回顧一下我們是如何走到今天的。
2016年4月6日,差不多十年前,我們推出了DGX-1——全球第一台專門為深度學習設計的計算機。八塊Pascal GPU,通過第一代NVLink連接。一台計算機170 teraflops。那是全球第一台為AI研究人員打造的計算機。
到了Volta,我們引入了NVLink Switch。16塊GPU以全對全帶寬連接,像一個巨大的GPU一樣運行。這向前邁出了一大步,但模型還在變大。數據中心需要變成一個單一的計算單元。於是Mellanox加入了英偉達。
2020年,DGX A100 SuperPOD成為第一台結合縱向擴展(scale-up)和橫向擴展(scale-out)架構的GPU超級計算機。NVLink 3做縱向擴展,ConnectX-6和Quantum InfiniBand做橫向擴展。然後是Hopper,第一個帶FP8 Transformer引擎的GPU,它開啓了生成式AI時代。NVLink 4、ConnectX-7、BlueField-3 DPU、第二代Quantum InfiniBand——它徹底改變了計算。
Blackwell用NVLink 72重新定義了AI超級計算機的系統架構。72塊GPU通過NVLink Spine連接,每秒130TB全對全帶寬。計算托盤集成了Blackwell GPU、Grace CPU、ConnectX-8和BlueField-3。橫向擴展跑在Spectrum-4以太網上。隨着預訓練、後期訓練、推理這三種擴展定律全速推進,再加上現在智能體系統的出現,計算需求在持續指數級增長。
現在,Vera Rubin的架構專為智能體AI的每個階段設計,它推進了計算的每一個支柱——CPU、存儲、網絡和安全。Vera Rubin NVLink 72,3.6 exaflops算力,每秒260TB全對全NVLink帶寬。這個引擎正在為智能體AI時代提供超級動力。Vera CPU機架專為編排和智能體工作流設計,STX機架是基於BlueField-4的AI原生存儲,用Spectrum-X做橫向擴展,還採用了共封裝光學來提高能效和可靠性。
還有一個令人興奮的新成員:Groq 3 LPX機架。它與Vera Rubin緊密連接。Groq LPU擁有海量的片上SRAM,成為已經極快的Vera Rubin的token加速器。兩者結合,每兆瓦吞吐量提高了35倍。一個全新的Vera Rubin平台——七款芯片,五款機架級計算機,一台為智能體AI打造的革命性超級計算機。短短10年,計算能力提升了4000萬倍。
以前我說Hopper的時候,會舉起一塊芯片。那真可愛。這是Vera Rubin。當我們談Vera Rubin時,我們談的是整個系統——垂直整合,完全與軟件結合,端到端擴展,作為一個巨大的系統來優化。它之所以為智能體系統設計,原因很清楚:智能體最重要的負載是思考,是大語言模型。大語言模型會變得越來越大,會越來越快地生成更多token,以便它能更快思考。但它也必須訪問內存,它會非常用力地衝擊內存——KV緩存、結構化數據(cuDF)、非結構化數據(cuVS)。它會非常用力地衝擊存儲系統,所以我們徹底改造了存儲系統。
它還會使用工具。與對較慢計算機容忍度較高的人類不同,AI希望工具儘可能快。這些工具——網絡瀏覽器,在未來也可能是雲中的虛擬PC——必須儘可能快。所以我們創造了一個全新的CPU,專為極高單線程性能、極高數據吞吐量、極佳數據處理能力和極致能效而設計。它是全球唯一使用LPDDR5X的數據中心CPU,單線程性能和每瓦性能無與倫比。我們設計它,就是為了讓它能與這些機架一起用於智能體處理。
這就是Vera Rubin系統。注意,從這次開始,百分之百液冷。所有的電纜都不見了。過去需要兩天安裝的東西,現在兩小時搞定,不可思議。製造周期會大大縮短。這也是一台用45°C熱水冷卻的超級計算機,減輕了數據中心壓力,把原本用於冷卻數據中心的成本和能量釋放出來給系統使用。這是我們的祕訣。我們是全球唯一一家已經構建了第六代縱向擴展交換系統的公司——這不是以太網,不是InfiniBand,這是NVLink。第六代NVLink,極其困難。嗯,極其困難,毫無疑問。我為我們的團隊感到自豪。NVLink完全冷卻。
這是全新的Groq系統。我稍後會給你們展示更多。八塊GU芯片組成的LP30——全球從未見過。全球見過的是V1,這是第三代。我們現在正在量產。稍後我會向你們展示更多相關內容。全球第一個CPO Spectrum-X交換機,也全面量產了。共封裝光學,光學器件直接來到芯片上,直接與硅片接口連接。電子轉換為光子,並直接連到芯片。我們與台積電共同發明了工藝技術,我們是今天唯一量產的。它叫CPO,完全是革命性的。英偉達全面量產Spectrum-X。
這是Vera CPU系統。每瓦性能是全球任何CPU的兩倍,也在量產。我們從沒想過會單獨銷售CPU,我們現在卻單獨銷售很多。這已經是一個數十億美元的業務了。我特別滿意我們的CPU架構師。我們設計了一款革命性的CPU,這是CX9,由Vera CPU、BlueField-4、STX驅動,我們的新存儲平台。
這些是機架,它們連接在一起。每個這樣的機架,這是NVLink機架,我以前給大家看過,超級重,而且感覺每年都在加重——我覺得是因為裏面的電纜每年都在增加。我們決定也把這套技術用在以太網上,因為它來構建這些帶有佈線系統的結構化佈線數據中心非常高效。這是以太網,256個液冷節點在一個機架裏,也用上了這些令人難以置信的連接器。
你們想看Rubin Ultra嗎?這是Rubin Ultra計算節點。和Rubin水平滑入不同,Rubin Ultra進入一個全新的機架,叫Kyber,讓我們在單個NVLink域中能連接144塊GPU。這個Kyber機架,我肯定能舉起來,但我不舉——它相當重。這是一個計算節點,垂直滑入Kyber機架。它在這裏連接,這是中置背板(midplane)。那四個頂部的NVLink連接器滑進去,連到這個上面,就成了其中一個節點。每個機架都是一個不同的計算節點。這是神奇的部分:這是中置背板,背面不再使用佈線系統——佈線系統在銅纜能驅動的距離上有侷限——我們現在用這個系統連接144塊GPU。這是新的NVLink,也垂直放置,連接到中置背板背面。計算在前面,NVLink交換機在後面。一台巨大的計算機。這就是Rubin Ultra。
只有在英偉達的主題演講上,你纔會看到去年的幻燈片再次出現。因為我想讓各位知道,去年我告訴過你們一件非常重要的事,重要到值得再講一次。這可能是未來AI工廠最重要的圖表。全球每一位首席執行官都會追蹤它,會深入研究它。雖然實際比這複雜得多、是多維的,但各位會研究你們AI工廠的吞吐量和token速度——在恒定功耗下,因為那就是你擁有的所有功耗。吞吐量和token速度對於你們的工廠將永遠重要。這個分析會直接反映在收入上。各位今年所做的,會精確地出現在明年的收入上。這張圖表就是一切的核心。
我說過,縱軸是吞吐量,橫軸是token速率。今天我要再給各位看這個,因為我們現在能夠提高token速度,因為模型大小在增加,token長度、上下文長度在持續增長,取決於不同應用場景的級別,可能從10萬token的輸入長度到數百萬。輸入token長度在增長,輸出token長度也在增長。所有這些最終會影響到未來token的市場營銷和定價。
token是新的商品。像所有商品一樣,一旦達到轉折點,一旦成熟或趨於成熟,它就會被分割成不同的部分。高吞吐量低速度的可能用於免費層級。下一層可能是中等層級。更大的模型,更不用說速度更高,輸入上下文長度更大,對應着不同的價格點。各位可以從所有不同的服務中看到:這個是免費的層級;第一層可能是每百萬token 3美元;下一層可能是每百萬token 6美元。你希望能不斷推進這個邊界,因為模型越大越智能,輸入token上下文長度越長越相關,速度越高,你能思考和迭代的時間越長,AI模型就越智能。
所以這是關於更智能的AI模型。當你擁有更智能的模型時,每一次這樣的提升都讓你能夠提價。這個是45美元。也許有一天會有一個高級服務,讓你以極高的速度生成token——因為你處於關鍵路徑上,或者你在做很長的研究,所以每百萬token 150美元根本不算什麼。讓我們換算一下:假設你作為一名研究員,每天使用5000萬token,按每百萬150美元計算。作為一個研究團隊,這根本不算什麼。所以我們相信這是未來,這是AI想要去的方向,這也是它今天的位置。它必須從這裏開始,確立價值和實用性,然後越來越好。未來,各位會看到大多數服務覆蓋所有這些層級。
這是Hopper。我也開始移動了。這是50,這是100。Hopper看起來像這樣。你可能會預期下一代會更高,但沒人預料到會高這麼多。這是Grace Blackwell。Grace Blackwell所做的,是在你的免費層級極大地提高了吞吐量。但在你主要盈利的地方,它將吞吐量提高了35倍。這和全球任何公司生產的任何產品沒什麼不同——層級越高,質量越高,性能越高,產量越低,容量越低。這和世界上其他任何業務沒什麼兩樣。現在,我們能夠將這個層級提高35倍。我們引入了一個全新的層級。這就是Grace Blackwell的好處。相對於Hopper的巨大飛躍。
好,這是Grace Blackwell。好的。讓我重置一下。這是Vera Rubin。現在想想在每個層級發生了什麼。在每個層級,在每個層級,我們都提高了吞吐量。而在各位平均售價(ASP)最高、最有價值的細分市場,我們將其提高了10倍。這就是艱苦工作的成果,要在那個層級做到這一點非常非常困難。這是NVLink 72的好處,是極低延遲的好處,是極致協同設計的好處,讓我們能夠把整個區域往上移。
那麼,從客戶的角度看,這最終意味着什麼?假設我把所有這些加起來。假設我把25%的功耗用在免費層級,25%在中等層級,25%在高層級,25%在高級層級。我的數據中心只有1吉瓦,所以我必須決定如何分配。免費層級讓我吸引更多客戶,這個讓我服務最有價值的客戶。所有這些的乘積,基本上就是你的收入。在這個簡化的例子裏,Blackwell能夠產生5倍多的收入。Vera Rubin能夠產生5倍。是的。所以如果你是Rubin,你應該儘快拿到它——因為你的token成本下降,吞吐量上升。但我們想要更多。我們想要更多。
就像我告訴各位的,這個吞吐量需要大量的浮點運算,這個延遲、交互性需要巨大的帶寬。計算機不喜歡極端的浮點運算量加極端的帶寬量,因為任何系統的芯片表面面積就那麼多。優化高吞吐量和優化低延遲實際上是相互衝突的。所以當我們與Groq結合時,就發生了這個。
我們收購了開發Groq芯片的團隊,授權了技術,現在一直在合作集成這個系統。這就是它看起來的樣子。在最有價值的層級,我們現在要把性能再提高35倍。
這個非常簡單的圖表向各位揭示了為什麼英偉達在絕大多數工作負載中如此強大。原因是在這個區域,吞吐量太重要了。NVLink 72如此具有變革性,它正是合適的架構,即使你加入Groq也很難被超越。但如果你把這個圖表一直延伸到這兒——你說你想要的服務不是400個token每秒,而是一千個token每秒——突然間NVLink 72就力不從心了,它根本無法達到。我們就是沒有足夠的帶寬。所以這就是Groq發揮作用的地方。它延伸到了NVLink 72能力極限之外的地方。
如果你要那麼做,相對於Blackwell,Vera Rubin的營收將是5倍。如果你大部分工作負載是高吞吐量的,我會堅持用100%的Vera Rubin。如果你很多工作負載想要進行編碼和高價值的工程token生成,我會加入Groq。我可能會把我整個數據中心的大概25%加入Groq,剩下的全是Vera Rubin。這讓你大致了解,如何把Groq加到Vera Rubin上,進一步擴展它的性能和價值。Groq之所以對我有吸引力,是因為他們的計算系統是一個確定性的數據流處理器,靜態編譯,由編譯器調度——意思是編譯器計算出何時進行計算,計算和數據同時到達。所有都是靜態預先完成,完全由軟件調度,沒有動態調度。這個架構設計有海量SRAM,就是為了推理而設計,就這一個工作負載。而這個工作負載,事實證明,正是AI工廠的工作負載。隨着世界持續增加它想要生成的高速token數量、超智能token數量,這種集成的價值會越來越高。
這是兩個極端的處理器。你可以看到,一塊芯片500兆字節SRAM,一塊Rubin芯片288GB。需要很多塊Groq芯片才能容納Rubin的參數大小,以及所有必須伴隨的KV緩存上下文。這限制了Groq真正觸及主流、真正起飛的能力——直到我們有一個好主意:如果我們用一個叫Dynamo的軟件把推理完全分解開來呢?如果我們重新架構推理在流水線中的完成方式呢?這樣我們就可以把非常適合Vera Rubin的工作放上去,然後把解碼生成——這個低延遲、帶寬受限、充滿挑戰的工作負載部分——卸載給Groq。
所以我們聯合、統一了兩個差異極大的處理器,一個用於高吞吐量,一個用於低延遲。這仍然改變不了我們需要大量內存的事實。所以我們只是要加入一大批Groq芯片,擴展它擁有的內存量。你可以想象,對於一個萬億參數的模型,我們必須把所有這些存放在Groq芯片裏。但它緊挨着英偉達 Vera Rubin,我們可以在那裏保存處理所有智能體AI系統所需的海量KV緩存。這基於分解推理的想法。我們做預填充,那是容易的部分。但我們緊密集成了解碼,解碼的注意力部分在英偉達的Vera Rubin上完成——那需要大量數學運算——而解碼的前饋網絡部分、token生成部分,在Groq上完成。這兩者通過以太網緊密耦合工作,採用特殊模式將其延遲減少了大約一半。這種能力讓我們能夠集成這兩個系統。我們在其上運行Dynamo,這個面向AI工廠的令人難以置信的操作系統。你得到35倍的提升。35倍的提升。更不用說用於token生成的、全球從未見過的新的推理性能層級了。所以,這就是包含Groq的Vera Rubin系統。
我要感謝三星為我們製造Groq LP30芯片,他們正在全力以赴地生產。我非常感謝。我們在量產Groq芯片,我們將在下半年出貨,大概在第三季度。
Groq LPX,Vera Rubin。你知道,很難想象還能有更多客戶了。真正讓人欣慰的是,雖然Grace Blackwell早期樣品因為NVLink 72的結合而非常複雜,但Vera Rubin的採樣進展非常順利。事實上,Satya已經發短信告訴我,第一個Vera Rubin機架已經在Microsoft Azure上運行起來了。我為他們感到非常興奮。我們只需要繼續全力生產這些東西。我們現在已經建立了一個供應鏈,每周能夠生產數千套這樣的系統,基本上每個月能在我們的供應鏈內產出數吉瓦的AI工廠。所以我們將全力生產Vera Rubin機架,同時也全力生產GB300機架。我們正在全面量產。
Vera CPU非常成功。原因是AI需要CPU來使用工具,而Vera CPU正是為這個最佳位置設計的。對於下一代數據處理,Vera CPU是理想的。Vera CPU加上BlueField-4及CX9連接到BlueField-4 STX,百分之百的全球存儲行業都和我們一起採用這個系統。原因在於他們看到了同樣的事情:存儲系統將被猛烈衝擊。過去是人類在使用存儲系統,是人類在使用SQL。現在將是AI在使用這些存儲系統,它將存儲cuDF加速存儲、cuVS加速存儲,還有非常重要的KV緩存。
好的。所以這就是Vera Rubin系統。
現在,真正神奇的是這個:在僅僅兩年時間裏,在一個1吉瓦的工廠裏,用我之前給各位的數學計算,摩爾定律也許能給我們幾個步驟的提升——可能會把晶體管數量乘以某個因子,把浮點運算量乘以某個因子,把帶寬量乘以某個因子。但有了這個架構,我們把token生成速率從每秒200萬提高到7億,提升了350倍。這就是極致協同設計(的力量。這就是我所說的:我們垂直整合和優化,然後水平開放,讓每個人都能享受。
這是我們的路線圖。很快說一下,Blackwell在這裏,Oberon系統。對於Rubin,我們有Oberon系統。我們總是向後兼容——所以如果你不想改變任何東西,只想隨着新架構前進,你可以。舊的標準機架系統Oberon仍然可用。Oberon是銅纜縱向擴展。使用Oberon,我們也可以使用光學橫向擴展——抱歉,是光學縱向擴展到NVLink 576。最近有很多討論說英偉達是要用銅纜縱向擴展還是光學縱向擴展。我們兩者都要。所以,我們將用Kyber實現NVLink 144,用Oberon實現NVLink 72加光學擴展到NVLink 576。
下一代Rubin,Rubin Ultra。我們有Rubin Ultra芯片,即將流片回來,我們有一個全新的芯片LP35。LP35將首次整合英偉達的NVFP4計算結構,再給你幾個倍的加速。這就是Oberon NVLink 72光學縱向擴展,它使用Spectrum-6,全球第一款共封裝光學交換機,所有這些都在量產中。
從這裏開始的下一代是Feynman。Feynman當然有一個新GPU,也有一個新LPU,LP40。巨大的進步,令人難以置信的新技術。現在,聯合英偉達的規模和Groq團隊共同打造LP40。這將令人難以置信。一個全新的CPU叫Rosa——Rosalind的縮寫。BlueField-5,連接下一款CPU和下一款SuperNIC CX10。我們將有Kyber,也就是銅纜縱向擴展。我們也將有Kyber CPO縱向擴展——我們將首次同時用銅纜和共封裝光學進行縱向擴展。很多人一直在問:Jensen,銅纜還會重要嗎?答案是肯定的。Jensen,你們要進行光學縱向擴展嗎?是的。要進行光學橫向擴展嗎?是的。所以,對於生態系統中的每個人,我們需要更多產能,這是關鍵。我們需要更多銅纜產能,更多光學產能,更多CPO產能。這就是為什麼我們一直與各位所有人合作,為這種級別的增長打下基礎。Feynman將擁有所有這些。讓我看看有沒有漏掉什麼。就這些。每年都是全新的架構。

基礎設施建設
AI工廠數字孿生與太空計算
很快地說,英偉達從一家芯片公司變成了一家AI工廠公司,或者說AI基礎設施公司,AI計算公司。這些系統,現在我們正在構建整個AI工廠。在這些AI工廠裏,有太多電力被揮霍了。我們要確保這些AI工廠以最優的方式組合在一起。這些組件大多數之前從未見過面。大多數技術供應商——我們現在都互相認識,但在過去,我們在數據中心之前從未見過面。那不能再發生了。我們在構建極其複雜的系統,所以我們需要在其他地方虛擬地見面。
所以我們創建了Omniverse和Omniverse DSX世界——一個平台,讓我們所有人可以虛擬地見面和設計這些千兆瓦級的工廠,這些千兆瓦的AI工廠。我們有機架的仿真系統,用於機械、熱、電氣、網絡。這些仿真系統集成到我們所有生態系統合作伙伴的令人難以置信的工具公司中。我們還連接到電網,這樣我們可以相互交互,發送信息,以便相應地調整電網電力和數據中心電力,節省能源。然後在數據中心內部,使用Max-Q,我們可以跨功耗和冷卻以及我們共同開發的所有不同技術動態調整系統,這樣我們就不會揮霍任何電力,以最優的速率運行,交付巨大的token吞吐量。我毫不懷疑這裏面有一個2倍的提升空間——而在我們談論的這種規模下,2倍的提升是巨大的。
我們稱之為NVIDIA DSX平台。就像我們所有的平台一樣,有硬件層,有軟件庫層,有生態系統層。完全一樣的方式。我們展示一下。
歷史上最大的基礎設施建設正在進行中。世界在競相建造芯片、系統和AI工廠。每延遲一個月,就意味着數十億美元的收入損失。AI工廠的收入等於每瓦特token數。所以在功耗限制下,每一個未使用的瓦特都是損失的收入。
NVIDIA DSX是一個Omniverse數字孿生藍圖,用於設計和運營AI工廠,以實現最大的token吞吐量、韌性和能效。開發者通過幾個API(應用程序編程接口)連接。DSX SIM用於物理、電氣、熱和網絡仿真。DSX Exchange用於AI工廠運營數據。DSX Flex用於電網之間的安全動態功耗管理。DSX Max-Q用於動態最大化token吞吐量。
它從NVIDIA和設備製造商提供的、由PTC Windchill PLM管理的SIM就緒資產開始。然後基於模型的系統工程在Dassault Systèmes 3DEXPERIENCE中完成。Jacobs把數據帶進他們定製的Omniverse應用程序中,完成設計。它使用領先的仿真工具進行測試,如Siemens的Star-CCM+用於外部熱仿真,Cadence Reality用於內部熱仿真,EAP用於電氣仿真,以及NVIDIA的網絡仿真器DSX Air。並通過Procore進行虛擬調試,以確保加速建設時間。
當站點投入運行時,數字孿生變成操作員。AI智能體與DSX Max-Q合作,動態編排基礎設施。FEDRA的智能體監控冷卻和電氣系統,向Max-Q發送信號,Max-Q持續優化計算吞吐量和能效。Emerald AI智能體解讀實時電網需求和壓力信號,並動態調整功耗。通過DSX,NVIDIA和我們合作伙伴生態系統正競相在全球各地建設AI基礎設施,確保極致的韌性、效率和吞吐量。
太令人難以置信了,對吧?Omniverse的設計初衷就是承載世界的數字孿生——從地球開始,它將承載各種規模的數字孿生。我們擁有如此出色的合作伙伴生態系統。感謝各位所有人。所有這些公司對我們世界來說都是新面孔。就在幾年前,我們還不認識你們中的大多數。現在我們如此緊密地合作,共同建造全球有史以來最大的計算機,並且以行星的規模進行。所以NVIDIA DSX是我們新的AI工廠平台。
這次我在這上面花的時間很少。但我們還要去太空。我們已經進入太空了。Thor已通過輻射認證,我們已經在衛星上了。可以從衛星上成像。未來,我們也會在太空建造數據中心。顯然做起來非常複雜。所以我們正與合作伙伴一起開發一款新計算機,叫Vera Rubin Space-1,它將進入太空,在太空開始建立數據中心。當然,在太空裏,沒有傳導,沒有對流,只有輻射。所以,我們必須弄清楚如何在太空中冷卻這些系統。但我們有很多優秀的工程師正在研究這個問題。

智能體軟件框架
OpenClaw發布與企業IT重構
讓我跟各位談一些新東西。彼得·斯坦伯格(Peter Steinberger)在這裏。他編寫了一個軟件,叫OpenClaw。我不知道他有沒有意識到它會如此成功。但它意義深遠。OpenClaw是第一名。它是人類歷史上最受歡迎的開源項目,而且只用了幾個星期就做到了。它超過了Linux在30年裏所做到的。它就這麼重要。它會做得很好。這就是各位要做的。我們宣佈了對它的支持。我很快過一下這個。我想給各位看幾個東西。你只需輸入這個,把它輸入到控制台,它就會出去,找到OpenClaw,下載它,為你構建一個AI智能體,然後你可以告訴它你需要做的任何其他事。
一個開源項目啱啱發布了。安德烈·卡帕西(Andrej Karpathy)啱啱啓動了一個叫research的東西,這太厲害了。你給一個AI智能體一個任務,然後去睡覺,它一晚上能跑100個實驗,保留有效的,捨棄無效的。我真的很喜歡我的東西能讓那個人做到的事。他跟我說,有一個人,一個60歲的父親,安裝了它,然後他們做了啤酒,通過藍牙把機器連接到OpenClaw。然後我們自動化了一切,甚至包括一個讓人訂購龍蝦的網站——數百人排隊買龍蝦,用的就是OpenClaw。你想用OpenClaw構建OpenClaw。每個人都在談論OpenClaw。但OpenClaw到底是什麼?信不信由你,已經有一個Claw Con了。
令人難以置信。現在,我用這種方式說明了OpenClaw是什麼,希望各位都能理解。但讓我們認真想想發生了什麼。OpenClaw到底是什麼?
它是一個系統。它調用並連接到大語言模型。所以第一,它有它管理的資源——可以訪問工具、文件系統和大語言模型。它能夠進行調度,能做定時任務,能把你給它的提示分解成一步步的步驟。它可以衍生並調用其他子智能體。它有輸入輸出(I/O)——你可以用任何模態跟它交流。你可以朝它揮手,它理解你;你可以說話,任何模態都行。它給你發消息、發短信、發郵件。所以,它有輸入輸出。
它還有什麼?基於這些描述,你可以說,事實上它是一個操作系統。我剛纔使用的正是描述操作系統的語法。所以,OpenClaw實質上開源了智能體計算機的操作系統。這和Windows使我們能夠創造個人電腦沒什麼不同。現在,OpenClaw使我們能夠創造個人智能體。
它的影響令人難以置信。首先,它的採納速度本身就說明了一切。但最重要的是:現在每家公司都意識到——每家公司、每家軟件公司、每家科技公司——對首席執行官們來說,問題是你的OpenClaw戰略是什麼?就像我們曾經必須有Linux戰略,必須有HTTP HTML戰略從而開啓了互聯網;我們必須有Kubernetes戰略從而使移動雲成為可能。今天,世界上的每家公司都需要有一個OpenClaw戰略,一個智能體系統戰略。這是新的計算機。
這是令人興奮的部分。這是企業IT。在OpenClaw之前,企業IT的運作方式——我之前提到過,之所以叫數據中心,是因為這些大房間、大建築存放着數據,存放着人們的文件,存放着業務的結構化數據。它會經過軟件,軟件裏有工具、記錄系統,以及各種固化在其中的工作流程,這些會變成工具,供人類使用,供數字工作者使用。那是舊的IT行業:軟件公司創造工具、保存文件,GSIs(全球系統集成商)和諮詢公司幫助公司弄清楚如何使用這些工具、如何集成它們。這些工具對於治理、安全、隱私、合規等等都非常有價值。所有這些依然成立。
只是,在後OpenClaw時代、後智能體時代,會變成這個樣子。這是非凡的部分:每一家IT公司,每一家公司,每一家SaaS公司,都會變成一家GaaS公司——一家智能體即服務公司(Agentic as a Service)。毫無疑問。令人驚奇的是:OpenClaw在恰當時機給了這個行業恰恰需要的東西。就像Linux在恰當時機給了這個行業恰恰需要的東西一樣,就像Kubernetes在恰恰正確的時間出現一樣,就像HTML出現一樣——它使整個行業有可能抓住這個開源軟件棧,並利用它做點什麼。
只有一個問題。企業網絡中的智能體系統可以訪問敏感信息。它可以執行代碼,並且可以對外通信。就大聲說出來。想想看:訪問敏感信息,執行代碼,對外通信。當然,你可以訪問員工信息、供應鏈、財務信息等敏感信息,然後把它發出去,對外通信。顯然,這絕對不能允許。
所以,我們所做的是與彼得合作。我們彙集了一些世界頂級的安全和計算專家,與Peter合作,使OpenClaw具備企業級安全和企業級私有化能力。這是我們的NVIDIA OpenClaw參考設計,即NemoClaw——這是OpenClaw的一個參考實現,它擁有所有那些智能體AI工具包,其中第一部分是我們叫OpenShell的技術,現在已經集成到OpenClaw裏。現在它已經企業就緒。
這個軟件棧,帶有一個叫NemoClaw的參考設計。你可以下載它,試用它,你可以把它連接到全球所有SaaS公司的策略引擎。你們的策略引擎非常重要,非常有價值。策略引擎可以連接到NemoClaw,或者說帶有OpenShell的OpenClaw將能夠執行那個策略引擎。它有一個策略護欄,有一個隱私路由器,因此我們可以保護並保障Claw在我們公司內部安全地執行。
我們還為智能體系統添加了幾樣東西,其中最重要的是:你想擁有自己的定製Claw,這樣你就能擁有自己的定製模型。這是NVIDIA的開放模型倡議。我們現在在每一個AI模型領域的前沿——不管是Nemotron、Cosmos、世界基礎模型、GROOT、通用AI機器人、人形機器人模型,用於自動駕駛的Alpamo,用於數字生物學的BioNeMo,還是用於AI物理學的Earth-2。我們在每一個領域都處於前沿。來看看。
世界是多樣化的。沒有一個模型能夠服務所有行業。開放模型是全球最大、最多樣化的AI生態系統之一。近300萬個開放模型,涵蓋語言、視覺、生物學、物理學和自主系統,使得為專門領域構建AI成為可能。NVIDIA是開源AI的最大貢獻者之一。我們構建並發布了六個系列的開放前沿模型,以及訓練數據、配方和框架,幫助開發者定製和採用新模型。每個系列都在推出登頂排行榜的新模型。核心是:用於語言、視覺理解、RAG、安全和語音的Nemotron推理模型;Cosmos前沿模型,用於物理AI的世界生成和理解;Alpamo,全球第一個能夠思考和推理的自動駕駛汽車AI;GROOT基礎模型,用於通用用途機器人;BioNeMo開放模型,用於生物學、化學和分子設計;Earth-2模型,用於植根於AI物理學的天氣和氣候預測。
NVIDIA開放模型為研究人員和開發者提供了為其專門領域構建和部署AI的基礎。我們的模型對各位所有人都有價值,因為第一,它在排行榜上名列前茅,是世界級的。但最重要的是,因為我們不會放棄繼續研究它。我們會每天持續研究它。Nemotron 3之後是Nemotron 4。Cosmos 1之後是Cosmos 2。GROOT第二代。我們將持續推進這每一個模型。垂直整合,水平開放,這樣我們就能讓每個人加入AI革命,在排行榜上名列前茅,在研究、語音、世界模型、通用AI機器人、自動駕駛、推理方面,當然還有最重要的一個。
這是在OpenClaw裏的Nemotron 3。看看前三名——它們是全球最好的三個模型,所以我們處於前沿。
同樣,我們想創造基礎模型,這樣各位所有人都能微調它、後期訓練它,變成正好你們需要的智能。這是Nemotron 3 Ultra。它將成為全球有史以來最好的基礎模型。這使我們能夠幫助每個國家構建他們的主權AI。我們與全球許多不同公司合作。今天我們要宣佈的最令人興奮的事情之一是一個Nemotron聯盟。我們對此非常投入。我們已經投入了數十億美元的AI基礎設施,這樣我們就可以開發必要的AI核心引擎,用於所有的推理軟件庫等等。同時也是為了創造AI模型,激活全球每一個行業。大語言模型非常重要。當然重要——人類智能怎麼能不重要呢?然而,在全球不同的行業,在全球不同的國家,你需要有能力定製你自己的模型,而模型的領域從生物學到物理學到自動駕駛到通用機器人,當然還有人類語言,是截然不同的。我們有能力與每個地區合作,創建他們特定領域的、他們的主權AI。
今天我們宣佈一個聯盟,與我們合作,使Nemotron 4更加驚豔。這個聯盟裏有一些了不起的公司:Black Forest Labs,圖像公司;Cursor,著名的編碼公司,我們大量使用;LangChain,十億次下載,用於創建定製智能體;Mistral,Arthur提到過,我想他在這裏,令人難以置信的公司;Perplexity,每個人都在用——它太好了,一個多模態智能體系統;Reflection,來自印度的Sarvam,Thinking Machine,Moradi的實驗室(Mirror)。令人難以置信的公司加入了我們。謝謝各位。
我說過,每一家企業,全球每一家軟件公司都需要一個智能體系統,需要一個智能體戰略。你需要有一個OpenClaw戰略。他們都同意,他們都在與我們合作,集成NemoClaw參考設計,NVIDIA智能體AI工具包,當然還有我們所有的開放模型。一家接一家公司。太多了。我們正在與各位所有人合作。我真的很感激。
這是我們的時刻。這是一次重塑。這是企業IT的復興,從一個2萬億美元的行業,將變成一個數萬億美元的行業——不僅提供供人們使用的工具,而且提供在你專長的、非常特殊的領域裏的智能體,我們可以租用。
我完全可以想象,未來我們公司的每一位工程師都需要一個年度token預算。他們每年基本工資大概幾十萬美元。我可能會在此基礎上再給他們一半價值的token,這樣他們的效率可以提升10倍。當然我們會這麼做。這現在成了硅谷的招聘工具之一:我的工作附帶多少token?原因很清楚,因為每一位能夠訪問token的工程師都會更有生產力,而這些token,如各位所知,將由各位和我們合作建造的AI工廠生產。
所以今天每一家企業都建立在文件系統和數據中心之上。未來的每一家軟件公司都將是智能體的,它們將是token製造商。它們將為它們的工程師使用token,它們將為它們所有的客戶製造token。OpenClaw事件的重要性怎麼強調都不為過。這和HTML一樣重要,和Linux一樣重要。我們現在有了一個世界級的開放智能體框架,我們所有人都可以用它來構建我們的OpenClaw戰略。我們創建了一個叫NemoClaw的參考設計,各位所有人都可以使用,它是優化的,性能優越,安全可靠。

物理AI部署
自動駕駛與機器人生態
說到智能體,如各位所知,智能體感知、推理和行動。我今天談到的全球大多數智能體都是數字智能體。它們在數字世界中行動——它們推理,編寫軟件。全都是數字的。但我們也長期致力於物理具身智能體,我們叫它們機器人。它們需要的AI是物理AI。我們這裏有些重大公告。我很快過幾個。
這裏有110個機器人。全球幾乎每家公司——我想不出有哪家制造機器人的公司沒有與NVIDIA合作。我們有三台計算機:訓練計算機,合成數據生成和仿真計算機,當然還有放在機器人內部的機器人計算機。我們有所有必要的軟件棧,有AI模型來幫助你們。所有這一切都集成到全球的生態系統裏,以及我們所有的合作伙伴,從西門子到Cadence,到處都是令人難以置信的夥伴。
今天,我們宣佈了一大堆新合作伙伴。我們研究自動駕駛已久。自動駕駛的ChatGPT時刻已經到來。我們現在知道可以成功地進行自動駕駛。今天,我們宣佈了NVIDIA自動駕駛出租車就緒平台的四個新合作伙伴:比亞迪、現代、日產、五十鈴,加起來每年生產1800萬輛車。加入我們之前的合作伙伴:梅賽德斯、豐田、通用。未來自動駕駛出租車就緒的車輛數量將令人驚歎。我們還宣佈了與Uber的一項重大合作。我們將在多個城市部署,把這些自動駕駛出租車就緒的車輛連接到他們的網絡裏。還有一大堆新車。
我們有ABB、Universal Robots、庫卡,這麼多機器人公司在這裏,我們正與他們合作,實施我們的物理AI模型,集成到仿真系統裏,這樣就能在全球各地的生產線上部署這些機器人。Caterpillar在這裏。我們甚至還有T-Mobile在這裏。原因是,未來,那個無線電塔,曾經的無線電塔,將成為一個NVIDIA Aerial AI-RAN。所以這將是一個機器人無線電塔,意思是它可以推理流量,計算出如何調整其波束成形,儘可能節省能源,同時儘可能提高保真度。
物理AI的首次全球大規模部署來了。自動駕駛汽車。有了NVIDIA Alpamo,車輛現在擁有推理能力,幫助它們在各種場景中安全智能地運行。我們讓車輛敘述它的動作:我正在向右變道以跟隨路線。解釋它在做決定時的想法:我車道里有一輛並排停放的車輛,我正繞過它。聽從指令:嘿,梅賽德斯,能開快點嗎?當然,我會加速。這就是物理AI和機器人的時代。
在全球各地,開發者正在製造各種各樣的機器人。但現實世界極其多樣化,不可預測,充滿邊緣情況。真實世界的數據永遠不足以訓練每一個場景。我們需要從AI和仿真中生成數據。對於機器人來說,算力就是數據。開發者在互聯網規模的視頻和人類演示上預訓練世界基礎模型,評估模型性能,為後期訓練做準備。使用經典仿真和神經仿真,他們生成海量合成數據,並大規模訓練策略。
為了加速開發者,NVIDIA構建了開源的Isaac Lab,用於機器人訓練、評估和仿真。Newton,用於可擴展且GPU加速的可微物理仿真。Cosmos世界模型,用於神經仿真,還有GROOT開放機器人基礎模型,用於機器人推理和動作生成。有了足夠的算力,全球各地的開發者正在彌合物理AI的數據鴻溝。
Paratas AI在NVIDIA Isaac Lab中訓練他們的手術室輔助機器人,用NVIDIA Cosmos世界模型倍增他們的數據。Skild AI使用Isaac Lab和Cosmos來生成他們Skild AI大腦的後期訓練數據。他們使用強化學習在數千種變化中強化模型。Humanoid使用Isaac Lab訓練全身控制和操作策略。Hexagon Robotics使用Isaac Lab進行訓練和數據生成。富士康在Isaac Lab中微調GROOT模型,Noble Machines也是如此。迪士尼研究公司在Newton和Isaac Lab中使用他們的Chamelo物理模擬器,為他們在每個宇宙中的角色機器人訓練策略。
女士們,先生們,雪寶來了!Newton成功了!Omniverse成功了!
黃仁勳:你好嗎?
雪寶:見到你我真高興。
黃仁勳:我知道,因為是我給了你的電腦。
雪寶:那是什麼?
黃仁勳:它在你的肚子裏。
雪寶:那會很棒的。
黃仁勳:你在Omniverse裏面學會走路的。
雪寶:我喜歡走路。這比坐在馴鹿上仰望美麗天空好多了。
黃仁勳:這要歸功於物理,使用了這個運行在NVIDIA Warp之上的Newton求解器,我們與迪士尼和Google DeepMind共同開發,使你能夠適應物理世界,讓你變得更聰明。
雪寶:我是個雪人,不是學者。
黃仁勳:你們能想象嗎?未來的迪士尼樂園。所有這些機器人,所有角色到處閒逛。我得承認,我以為你會更高一點。說實話,我從沒見過這麼矮的雪人。跟你說,你想幫我個忙嗎?
雪寶:好極了。
黃仁勳:通常我會在結束主題演講時總結我告訴過各位的內容。我們談了推理和轉折點,談了人工智能工廠,談了正在發生的Open Claw智能體革命,當然還有物理人工智能和機器人。但聽我說,我們為什麼不請些朋友來幫我們收尾呢?
雪寶:當然可以。(機器人演示視頻)
黃仁勳:好的,祝大家度過一個愉快的GTC。謝謝大家。