黃仁勳一句話,揭露了OpenClaw的「陰謀」

藍鯨財經
03/29

文 | DoNews網站 雁秋

黃仁勳將OpenClaw比作AI時代的Windows。這種開放能力,帶來的究竟是生態的繁榮,還是另一種形態的壟斷?

「OpenClaw在行業最需要的時候,提供了最需要的東西。」在GTC 2026年度開發者大會上,黃仁勳給予OpenClaw極高的評價。

行業最需要什麼?OpenClaw又提供了什麼東西?在DoNews看來,AI正在從數字世界邁向物理世界,行業急需一個能打通兩者的開源基礎設施,而OpenClaw恰好扮演了這樣的角色。

作為一個開源的Agent平台,OpenClaw深度優化了與CUDA及英偉達硬件的兼容性,在用戶給予足夠系統權限的情況下,它可以通過Agent自動操作電腦、調用工具、執行任務。

黃仁勳將其與Windows相提並論,認為OpenClaw對於人工智能的意義,就如同Windows對於個人計算的意義一樣:它定義了應用與底層硬件交互的標準,降低了開發的門檻,催生了難以計數的應用生態。上到GITHUB這個最大的開源社區,中到企業的紛紛效仿,下到普通人排隊裝「蝦」,OpenClaw的蔓延程度令人驚訝。

然而,開放的另一面,是否會是一把枷鎖?就像Android,代碼是開放的,但Google卻通過GMS(谷歌移動服務)牢牢掌控着生態的話語權。未來,OpenClaw是否會沿着同樣的路線演進?對於中國科技企業而言,兼容OpenClaw是否會通往更繁榮的地帶?

01、黃仁勳的五層蛋糕與算力鐵律

黃仁勳為何要大誇特誇OpenClaw?搞清楚這個問題之前,我們不妨先來了解一下他提出的「五層蛋糕」理論。

具體來講,黃仁勳將整個AI產業架構分為五層,自上而下依次為:應用、模型、基礎設施、芯片、能源,每一層相互支撐、相互拉動。

應用:最終面向用戶的AI軟件

模型:OpenClaw在這一層

基礎設施:土地、供電、冷卻系統、網絡通信等

芯片:將能源轉化為算力

能源:(物理意義上)電力

在黃仁勳看來,每一個應用的成功,都會拉動下方每一層的需求,一直延伸到發電廠。這兩年算力、電力為何被屢屢提及,頻繁出現在大衆視野中?原因在於大模型愈演愈烈。

無論是像OpenAI一樣選擇閉源,還是像Meta一樣開源,只要它們需要通過智能體框架(如OpenClaw)去執行復雜的任務,就需要消耗大量的算力。模型和應用越繁榮,對底層算力的依賴就越強。

而所有的繁榮,都要向底層的「賣鏟人」英偉達支付高昂的算力費用。

再來看看OpenClaw都做了什麼,從一開始,它就深度優化了與CUDA及英偉達硬件的兼容性,各家公司都可以在此基礎上構建自己的智能平台,也就是所謂的「養蝦」。看似在模型層面構建了開放的標準,但在芯片層面強化了英偉達的護城河。開放的生態,直接成了底層算力寡頭的「引水渠」。

換句話說,黃仁勳對OpenClaw的盛讚,也是因為它為英偉達帶來了源源不斷的算力需求。

02、各大門派的蝦塘攻略

OpenClaw帶來一波「養蝦」潮,但「養蝦」前先得有「蝦塘」,大廠們最先捲起來。

阿里、字節跳動、騰訊百度等科技公司都陸續上線部署或接入OpenClaw;月之暗面、智譜AI、MiniMax等大模型公司,也為OpenClaw推出了專屬的Coding Plan(編程模型訂閱)訂閱套餐。

就連手機廠商也來湊熱鬧。小米做了MiClaw,自稱智能體,但有爭議;榮耀說自己的 MagicPad 4 可以部署 OpenClaw,但目前沒有多少聲量。

DoNews在近期的行業交流中,對幾款主流「龍蝦」做了基本的了解:

大模型公司踩中了OpenClaw燒token的痛點,發布了門檻更低、價格更便宜、輸出更穩定的雲端模型,其中以月之暗面和MiniMax為代表,這兩家在OpenClaw的這場巨浪之中收穫頗豐。

月之暗面-Kimi Claw

月之暗面速度最快,在2月18日就上線了一鍵部署工具Kimi Claw。這是一個雲端託管的OpenClaw服務,用戶無需本地部署,直接在瀏覽器中就能使用完整的OpenClaw功能。

重點是,Kimi Claw內置了Kimi K2.5模型,自動關聯用戶的Kimi Code會員權益額度。用戶無需額外配置API Key,不用擔心燒掉token。

MiniMax-MaxClaw

MiniMax緊隨其後,在2月25日推出了MaxClaw。MaxClaw走的是和Kimi Claw一樣的路子,基於自家MiniMax M2.5模型,但其定價策略非常激進,API價格更便宜。

因此,MaxClaw發布後12小時內登頂OpenRouter熱度榜,一周內登頂調用量榜首,周調用量3.07萬億token,超過Kimi K2.5、GLM-5與DeepSeek V3.2三家的總和。

上面兩個代表產品更多在極客圈流行,對於普通人、尤其是不懂技術的人來說,光是安裝配置就消耗掉大部分熱情。大廠看到這一痛點,開發了開箱即用、又能控制風險的解決方案。

阿里「悟空」

「悟空」的優勢在於場景和供應鏈,面向B端中小企業和個人。它可以在釘釘、個人電腦(Mac/Windows)、雲電腦等多種運行環境中執行任務,直接訪問和操作用戶設備上的文件、應用。

更重要的是,悟空深度集成了淘寶、天貓的底層交易接口,打通了電商購物、物流查詢、售後服務等內容,可以直接通過指令,完成從種草到下單的全流程。

不過「悟空」目前還處在初期階段,輸出不太穩定。有人反映「悟空」好像經常不能結束它沒做完的任務,除非強制停下,更棘手的問題是,它很耗算力,儘管你沒讓它做太多事情。

圖源:悟空發布會

騰訊QClaw

QClaw的特點在於C端社交,它無縫銜接騰訊巨大的生態,在OpenClaw的框架基礎上強化了社交功能,可以像真人一樣給好友發消息、拉群、調用小程序服務。

微信甚至也連上了OpenClaw,官方在近期上線了插件。過去微信的更新都是自建生態,把外部模型搬進來確實非常罕見。看得出來,騰訊確實也有點焦慮。但微信也表示,有權對風險情況採取攔截、阻斷等措施,OpenClaw可以隨便跑,但要遵守微信的規則。

說實話,不知道這些更新是來自創新驅動還是焦慮驅動。但大多數廠商並沒有選擇另起爐竈,而是基於OpenClaw開源項目的二次開發或深度集成,一方面降低用戶「養蝦」門檻,同時拉動底層算力消耗。

03、別對龍蝦太上頭

越是瘋狂時,越要保持清醒。

如今,中國已成為AI最活躍的主場之一。據全球AI模型聚合平台OpenRouter,在2024年2月的一周內,中國模型的周調用量高達5.16萬億Token,幾乎是美國模型調用量的兩倍。MiniMax、月之暗面(Kimi)、智譜、DeepSeek等公司的模型在海外市場被海量調用。

一方面說明,中國AI模型的實力已被全球認可;但另一方面,全球開發者對於中國模型的調用,很大程度上是通過OpenClaw這類智能體框架完成的。我們的模型雖然跑得歡,「水管」卻攥在人家手裏。這種依賴,不可避免會帶來風險。

首先,就是技術主權的桎梏。

由於依賴於對底層架構的深度綁定,國產「龍蝦」並未實現自主。如果所有的「開發」都只是在為OpenClaw做生態補充,而非構建自己的底層標準,那麼未來OpenClaw修改協議、調整接口,國內開發者就會受到較大影響。這就好比當年手機廠商都基於Android深度定製,但谷歌通過GMS服務依然掌握了生殺大權。

巧合的是,就在小編撰寫這篇文章期間,OpenClaw就出現了「事故」。3月23日,OpenClaw突然更新了2026.3.22-beta.1新版本,ClawBot無法適配新版OpenClaw安全審計流,出現了大面積請求報錯。隨後ClawBot全面陷入癱瘓,導致飛書、釘釘等第三方集成方案也因底層架構不兼容相繼出故障。

國內大廠基於OpenClaw做二次開發,是長期的最優解嗎?在「完全自主」和「融入生態」之間,是否存在第三條路?

其次是安全的窟窿。

根據國家信息安全漏洞庫(CNNVD)統計,自2026年1月至2026年3月9日,共採集OpenClaw漏洞82個,其中超危漏洞12個,高危漏洞21個,包含了訪問控制錯誤、代碼問題等多個漏洞類型。

OpenClaw本身就存在多項風險窟窿,雖然兼容OpenClaw的國產大模型,已經通過強制認證、訪問限制、最小權限等方式協同防護,但又能否保證絕對的信息安全?尤其是像微信聊天這種非常私密的環境,但凡中間任何一個環節出現漏洞,對於普通人的風險是難以估量的。

任何人都需要客觀理性地去看待「龍蝦」,重新判斷它的價值。

寫在最後

最後,再談談小編作為一名科技內容創作者的感受吧,最近簡直要被各種「7×24小時」「數字員工」刷屏,身邊沒有人不聊「龍蝦」,他們幾乎都會告訴你,它可以代替人類做大部分工作。

但小編感覺要做的事情反而更多了。以前寫稿,能扒到信源就那麼幾個,如今AI工具直接搬出來幾十個,稿子寫完還得留個心眼:這段內容是不是AI編的?這個數據靠不靠譜?

AI讓人省事了嗎?可能只是換了一種操心的方式,最後拍板、擔責的還得是人類——你需要用它,但也得防它。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10