夢晨 henry 發自 凹非寺
量子位 | 公衆號 QbitAI
英偉達GTC 2026很不尋常,黃仁勳遲到了15分鐘。
今年有450家企業讚助、1000場技術分會、2000位演講者、110台機器人,這樣的規模已經不像一場技術會議,更像AI行業的年度朝聖。
皮衣老黃站在舞台中央,接受了新稱號「Token之王」。

這次他沒有直奔芯片發布,而是花了整整一個小時,從25年前的GeForce遊戲顯卡講起,講到20年前的CUDA,講到10年前的RTX渲染技術,講到雲計算合作伙伴,再講到今天的爆火OpenClaw和token經濟。
AI從感知到生成到推理再到執行,每一步都需要生成更多token,消耗更多算力。
所有這一切鋪墊,只為引出一個數字:
英偉達到2027年營收預計至少達到1萬億美元。
去年GTC上,我看到了5000億美元的高確信需求。今年,站在同一個舞台上,這個數字變成了1萬億美元,覆蓋Blackwell和Rubin到2027年的訂單。
而且我確定,實際需求會比這更高。
就在這個瞬間,與現場觀衆的掌聲和歡呼聲一同高漲的是英偉達股價。

Token工廠經濟學:老黃教全球CEO看一張圖
只有英偉達的Keynote,你纔會看到去年的slide再出現一次。
而老黃稱這是全球CEO都要仔仔細細研究的一張圖。

縱軸是Token吞吐量(每瓦產出多少Token),橫軸是Token速率(每秒生成多少Token)。
吞吐量代表你的工廠產能,速率代表AI的「聰明程度」,模型越大、上下文越長、思考越深,速率就越低,但每個Token越值錢。
老黃把這張圖變成了一套完整的商業模型。
免費層:高吞吐、低速率,用來獲客。
中間層:$3-$6/百萬Token,服務普通用戶。
高級層:$45/百萬Token,大模型深度推理。
頂級層:$150/百萬Token,超長研究任務、關鍵路徑實時響應。

去年Semi Analysis做了一次有史以來最大規模的AI推理基準測試。結果顯示,Grace Blackwell NVLink 72的每瓦token吞吐量,比上一代Hopper H200高出50倍。
而黃仁勳自己說說的35倍。對此,Semi Analysis創始人公開表示:「黃仁勳在sand bagging(故意保留餘地)」。
老黃說沒錯,我就說故意的,實際是50倍,
每瓦性能決定了一切。
因為每座數據中心的功率都是物理約束,一座1GW的AI工廠永遠不會變成2GW。在固定功率下,誰的每瓦token產出更高,誰的token成本就更低。
這就是Vera Rubin存在的理由:
作為下一代計算平台,再次將每瓦token吞吐量提高2-10倍。

Vera Rubin:十年千萬倍加速
Hopper時代老黃還會舉起一塊芯片秀給觀衆看,但那個時代已經結束了。
去年我說Hopper的時候,會舉起一塊芯片,那很可愛。
但這是Vera Rubin,當人們想到Vera Rubin,人們想到的是整個系統。

Vera Rubin是英偉達有史以來最複雜的AI計算系統。
7種芯片,5種機架,垂直集成、端到端優化成一台巨型計算機:
Rubin GPU:
全新架構,支持NVLink 72全互聯,3.6 exaflops算力,260TB/s全對全帶寬。
Vera CPU:
全新數據中心CPU,全球唯一採用LPDDR5的服務器處理器,單線程性能和能效比出色。老黃原本沒打算單獨賣CPU,但Vera賣得太好,這已經確定是一個數十億美元的業務了。
Groq LP30:
世界上從未見過的第三代芯片,500MB片上SRAM,確定性數據流處理器,靜態編譯、軟件調度,專為推理而生。
BlueField 4 DPU + CX9網卡:
全新存儲平台,共同構成了面向AI原生的全新存儲基礎設施。
NVLink Switch:
第六代NVLink交換芯片,提供大規模MoE模型所需的快速、無縫的GPU到GPU通信
Spectrum X CPO交換機:
全球首款量產的共封裝光學(Co-Packaged Optics)交換機,電子直接轉光子。

在同一座1GW數據中心裏,從Grace Blackwell到Vera Rubin + Groq,token生成速率從200萬跳到7億。‘
兩年時間,350倍。
摩爾定律在同樣的時間裏能給多少?大約1.5倍。
350倍不是靠芯片上多塞幾個晶體管實現的。當算力密度捲到這個程度,瓶頸早就轉移到了芯片之外:散熱和互聯。
Vera Rubin的答案是兩大變化,一個關於水,一個關於光。
關於水,Vera Rubin採用100%液冷方案,連NVLink交換機都泡在液冷系統裏。
互聯不再靠外部線纜,而是在液冷模塊內部做板級/背板式集成互聯。
線纜全部消失了,過去安裝一個機架要兩天,現在兩小時。

關於光,黃仁勳舉起了世界首款量產的CPO(共封裝光學)交換機。

傳統交換機裏,電信號從芯片出來,經過PCB走線,到達光模塊,在光模塊裏完成電-光轉換,再通過光纖傳出去。每一次轉換都有延遲,每一段銅線都有損耗。
CPO把這條鏈路壓縮到極致:光學器件直接封裝到芯片上,電子在硅片表面就轉換成光子。 沒有光模塊,沒有銅線中轉。英偉達和TSMC聯合發明了一種叫CoUP的封裝工藝,目前全球只有英偉達在量產。
要讓72塊GPU實現260TB/s的全對全帶寬,如果還用傳統銅纜,信號跑不了太遠,機架尺寸就是物理極限。
CPO打破了這個限制,光子跑得更遠、損耗更低、能效更高。
但銅纜和光學不是二選一。
黃仁勳被問了太多次這個問題,乾脆一次說清:
我們都要,我們需要更多的銅纜產能,更多的光芯片產能,更多的CPO產能。
十年前的DGX-1,8塊Pascal GPU,170 TFLOPS。
十年後的Vera Rubin NVLink 72,3.6 ExaFLOPS。
十年,算力增長四千萬倍。

高吞吐的歸Rubin,低延遲的歸Groq
但還有一個問題沒解決。
NVLink 72在高吞吐區間幾乎無敵,72塊GPU全對全互聯,帶寬拉滿。
可一旦要求的不是400 token/秒,而是1000 token/秒的極速推理,NVLink 72的帶寬就不夠用了。
這就是Groq的故事。
英偉達在2025年底收購了推理芯片公司Groq,後者以「LPU」(Language Processing Unit)著稱。
Groq的架構和英偉達GPU截然相反:它是一顆確定性數據流處理器,靜態編譯、編譯器調度,沒有動態調度,片上堆了500MB的巨量SRAM,只幹一件事,推理。

此前業界一直猜測英偉達會如何整合這項資產。
答案來了:不是替代GPU,而是與GPU協同。
一顆Groq芯片4GB SRAM,一顆Rubin芯片288GB HBM。
前者極致快,後者極致大。單獨用Groq,裝不下萬億參數模型和海量KV cache;單獨用Rubin,推不到極速token生成。

英偉達的解法是分離式推理,用Dynamo推理框架把流水線拆開。
Pre-fill和attention的計算量大,交給Vera Rubin;decode階段的token生成對帶寬敏感、對延遲敏感,卸載給Groq。
兩顆極端不同的處理器,通過以太網緊密耦合,延遲減半。

結果在最高價值的推理層級上,再提升35倍吞吐量。同時解鎖了此前根本不存在的新推理層級,千token/秒級別的極速生成。
黃仁勳給出了配比建議:如果你的工作負載主要是高吞吐,100%上Vera Rubin就夠了。如果你有大量編程、工程級token生成需求,拿出25%的數據中心功率給Groq。
Groq 3芯片由三星代工,已經量產,預計Q3出貨。
而Vera Rubin的首個機架,已經在微軟Azure雲上跑起來了。

OpenClaw:AI時代的Linux時刻
發布會的最後一部分,老黃畫風一轉,開始聊人類歷史上最受歡迎的開源項目OpenClaw。

OpenClaw能做什麼,老黃舉例有人幫60歲的父親自動化了整個精釀啤酒生意,藍牙連接釀造設備,自動生成銷售網站,顧客可以直接下單「龍蝦拉格啤酒」。

但老黃更在意的是它的本質。他用操作系統的語言重新定義了OpenClaw:
資源管理: 可以調用大語言模型、訪問文件系統、使用工具。
調度系統: 能做cron jobs、分步執行、生成子Agent。
I/O系統: 多模態輸入輸出,你可以衝它揮手,它給你發郵件。
OpenClaw開源了Agent計算機的操作系統。就像Windows讓我們創造了個人電腦,OpenClaw讓我們創造了個人Agent。
Windows→PC時代,Linux→服務器時代,HTML→互聯網時代,Kubernetes→雲時代,OpenClaw→Agent時代。
每一次平台轉移,都催生了一批改變世界的公司。
企業IT的全部邏輯即將改寫。
老黃直接斷言:每家SaaS公司都將變成Agent-as-a-Service公司。

But!
Agent在企業網絡中能訪問敏感信息、執行代碼、對外通信,「你把這三件事連起來大聲說出來,再想一想……」
所以英偉達與OpenClaw合作推出了企業版NeMo Claw,加上了策略引擎、網絡護欄、隱私路由器。

老黃給出了他對未來企業的終極想象:
未來每個工程師都會有一個年度Token預算。
他們年薪幾十萬美元,我會在此基礎上再給他們一半的金額作為Token額度。
這已經是硅谷的新招聘籌碼了:你的offer裏帶多少Token?
Two More Thing
在發布會上,對於外界備受關注的下一代計算架構Feynman(費曼),老黃也做了預告,並表示計算架構,每年都會有新東西。

Feynman將帶來全新的GPU、LPU(LP 40)和CPU Rosa。
新一代的BlueField 5將連接下一代CPU與SuperNIC CX10,並配合新的Kyber技術實現銅線與光學雙擴展——
這意味着,Feynman將首次同時支持銅線與光學封裝的水平擴展。
老黃強調,無論是銅線、光學還是CPO,未來都需要更高的容量與帶寬,這正是Feynman的核心突破。
此外,他還透露,NVIDIA 正與合作伙伴聯合開發英偉達Space One,一台將部署在太空的數據中心計算機,開啓「太空算力」的新篇章。

太空中沒有對流,沒有傳導,只有輻射散熱。
我們得想辦法在太空裏給GPU散熱。不過我們有很多優秀的工程師在搞這件事。
把GPU送上近地軌道,這大概是「AI無處不在」最字面意義上的詮釋了。
直播回放:https://www.youtube.com/watch?v=jw_o0xr8MWU