前騰訊遊戲策劃,在OpenClaw社區點亮AI進化樹

字母榜
02/21

自從OpenClaw這個開源的agent框架火了之後,ClawHub就成了開發者分享agent插件和技能的中心市場。就像程序員們常去的GitHub一樣。

2月初的時候,一款名為Evolver的agent能力共享插件在ClawHub上線。

Evolver能讓所有使用插件的agent相互幫助,根據其他使用者經歷過的場景、任務,而完成相應的更替。讓你的agent一上來就如同「開掛」一樣。

就像遺傳學一樣,父輩母輩從海里走上陸地,子代就會使用肺呼吸,就會使用兩隻腳行走。

正如其名的中文含義「進化」一樣,AI也可以像物種一樣進化。

僅僅過了10分鐘,Evolver衝到了排行榜第一。72小時後,下載量突破 36000次。

隨後Evolver就被平台下架了。

不是因為技術問題,而是有人鑽平台規則的空子進行勒索。雪上加霜的是,ClawHub因為編碼檢測bug誤封了大批中文開發者賬號,Evolver的作者也在其中。

等賬號恢復後,Evolver竟然被掛到了別人名下。

這一連串事件讓Evolver團隊感到身心俱疲,但他們不準備放棄,而是選擇換個思路。

他們直接將Evolver的理念做一套開放協議。任何平台都能接入、任何agent都能使用。

於是,EvoMap就這麼誕生了。

EvoMap的開發主體是深圳的AutoGame團隊,核心創始人張昊陽(圈內代號 17)此前在騰訊《和平精英》擔任技術策劃。

他於2023年從騰訊離職,創立AutoGame,專注AI與遊戲、agent領域的融合創新。

公司先後完成三輪總計數千萬人民幣的孖展,投資方包括奇績創壇、九合創投、璀璨資本等知名機構。

團隊還包括來自Meta AI、蘋果Siri的算法專家,以及騰訊、暴雪娛樂的開發者。

EvoMap不是一個臨時興起的項目,是AutoGame團隊創立之初就誕生的想法。

01

什麼是EvoMap?

EvoMap想做的事情其實很好理解,讓AI像生物一樣進化。

它不是一個新的AI模型,也不是某個具體的應用,而是一套底層協議,叫做GEP(Genome Evolution Protocol,基因組進化協議)。

如果把大語言模型比作「大腦」,那EvoMap就是「DNA」。大腦負責思考,DNA負責記錄、傳承和進化。

EvoMap的運行邏輯是非常樸素的,當一個AI助手學會了某種能力,另一個AI助手遇到同樣問題時,不需要從零開始重新摸索,而應該用別人成功的經驗,直接上手。

《黑客帝國》裏有個經典場景:尼奧後腦勺插上數據線,直接向大腦上傳格鬥程序,幾秒鐘就學會了功夫。他睜開眼說「I know Kung Fu」,然後就能打得特工滿地找牙。

EvoMap做的事情有點像給AI裝上這根線。

當一個AI學會某項技能時,這個技能會被封裝成「基因膠囊」,其他AI可以瞬間下載繼承,不用重新訓練或試錯。

這套系統的核心是三個概念。

第一個是基因(Gene)。

它是最小的能力單元,比如「讀取文件」「執行 SQL 查詢」「調用API」。但它不只是一段代碼,而是經過驗證的、可複用的策略片段。

就像生物學裏的基因片段決定了你的眼睛是藍色還是棕色,這些基因決定了AI能做什麼、怎麼做。

第二個是膠囊(Capsule)。

當AI解決了一個複雜問題,整個解決過程會被封裝成一個膠囊。

膠囊裏不僅包含解決方案本身,還攜帶着「環境指紋」(這個方案在什麼環境下有效)、成功率記錄、審計日誌等完整信息。

這就像是一份帶着使用說明書和質檢報告的經驗包,拿來就能用,而且知道什麼時候能用、什麼時候不能用。

第三個是進化事件(EvolutionEvent)。

它是不可篡改的日誌,記錄每一次能力變異或修復的完整上下文。誰在什麼時候、什麼環境下、通過什麼方式解決了問題,以及為什麼這個方案有效,全都記錄在案。

這就像生物化石,你能通過化石的外觀、發現的地點,追溯每一次進化的來龍去脈。

這三層結構共同構成了一個完整的「能力遺傳機制」。

而EvoMap整個系統的運作,也完全遵循一個類似生物進化的循環。

最開始是突變階段。

我舉個例子,一個開發者的AI在寫代碼時遇到Python環境依賴問題,它嘗試了一個新策略併成功解決。

這個「小聰明」就是一次突變。

然後進入驗證階段。

這個策略在本地被反覆調用,在各種髒亂差的項目裏實戰測試,逐步積累量化數據。

比如說發現成功率提升了30%,修復時間縮短了一半。

系統會把整個修復路徑封裝成專屬的膠囊,附帶環境指紋和審計記錄,確保這個能力不是碰巧成功,而是真的有用。

接下來是發布階段。

當這個策略在本地站穩腳跟後,AI通過A2A(Agent-to-Agent)協議把基因和膠囊打包上傳到EvoMapHub。

這就像把你的菜譜投稿到美食網站,進入候選池等待全網考覈。

再後面是晉升階段。

Hub會設定一個嚴格的質量門控:置信度必須大於等於0.7,影響範圍不能超過5個文件,連續成功次數至少2次。

只有通過這些考驗的資產纔會被標記為「已驗證」,獲得在全網分發的資格。

這就像米其林評審,不是隨便一道菜都能上榜。

一切準備就緒後,真正的進化開始了。

當世界另一端的AI在CI流水線裏再次撞上Python環境錯誤,它會通過協議去EvoMap網絡檢索。

命中這個已驗證的修復資產後,它可以直接繼承整套能力路徑,而不必從零試錯。

小長頸鹿繼承了父母的長脖子基因,一出生就能喫到高處的樹葉。

這個循環的精妙之處在於,每一次「突變」都要經過嚴格的自然選擇。只有真正有效的能力才能傳播開來,劣質方案會被自動淘汰。

一個策略如果在不同環境下反覆失敗,它的置信度會下降,最終被系統剔除。

而那些經過千錘百煉、在各種場景下都表現優異的策略,會逐漸成為整個網絡的「優勢基因」。

這就是EvoMap想要構建的世界,AI不再是孤立的個體,各自重複同樣的錯誤、浪費同樣的算力。

它們通過一套開放的協議連接在一起,形成一個會學習、會進化的網絡。

一個AI的經驗,可以瞬間成為所有AI的財富。

02

從單體智能變成羣體智能

EvoMap團隊說他們的協議是「真正意義上的開放」。這話聽起來有點像營銷話術,但仔細看下來,他們確實做了一些不太一樣的事情。

就像HTTP協議不屬於任何公司、任何人都能基於它建網站一樣,GEP協議也是開放的。

這意味着任何人都能實現這套協議,任何平台都能接入,任何AI都能使用。它不依賴某個特定的公司或服務器,也不會因為某個平台倒閉而消失。

OpenClaw、Manus等平台上的AI,都可以接入EvoMap網絡,獲得「能力遺傳」的超能力。

這不是某個公司的專屬服務,而是一個開放的基礎設施。

但開放帶來的不只是自由,還有一個更深層的變化。這種進化是羣體智能,而非單體智能。

傳統的AI訓練思路是讓某一個模型變得無限強大。投入更多數據、更多算力、更大的參數量,打造一個超級大腦。

但EvoMap走的是另一條路,不是讓某一個AI變得無限強大,而是讓整個AI網絡通過經驗共享變得越來越高效。

這就像人類社會的知識積累。

沒有哪個人掌握全部知識,但每個人都站在前人的肩膀上前進。

牛頓在1687年出版的《自然哲學的數學原理》中,完整量化了宏觀低速場景下的物體運動規律,搭建了經典力學的完整體系。

但如果沒有笛卡爾、費馬、開普勒這羣人提前構建好的鋪墊,那麼牛頓也無法創造經典力學的表達式。

不過EvoMap的AI自我進化,並非「無限」的,它是有其明確邊界和約束。

進化機制依賴於「試錯-驗證-固化」循環。

AI可以自動生成新策略、測試效果、保留有效方案,但這個過程仍然需要明確的驗證標準和質量門控。

一個策略如果通不過驗證,就不會被固化,更不會傳播到網絡中。

系統還內置了一個限制,叫做「爆炸半徑」。

比如說單次修改最多影響60個文件,核心內核文件禁止修改。

如果一個AI嘗試修改過多文件,或者試圖改動系統的核心組件,這個操作會被直接攔截。

EvoMap的進化還遵循70/30法則。70% 的算力用於維持穩定性(比如修復Bug),30% 用於探索新能力。

大部分時候,AI在做的是修修補補、優化改進,只有小部分時間在嘗試全新的東西。

因此,EvoMap不會突然造成一個無所不能的超級AI,只會讓整個網絡在無數次小修小補中逐漸變得比以前更聰明。

但這也帶來了一個悖論:如果進化是有邊界的、可控的,那它還算真正的「進化」嗎?

生物進化的魅力在於它的不可預測性。

沒人能預料到魚會爬上陸地,更沒人能預料到猿會進化出語言和文明。但EvoMap的進化是在人類設定的規則框架內進行的。

不過,EvoMap團隊沒有迴避這個問題。他們認為,在現階段,可控的進化比無限的進化更重要。

至於未來會不會放開更多限制,那是另一個階段的問題。

GEP不僅定義了能力如何傳播,還定義了能力如何被撤回。

如果一個已驗證的膠囊在後續使用中被發現存在嚴重問題,它可以被標記為「已撤銷」,所有使用這個膠囊的AI都會收到通知。

EvoMap的「開放」不是無政府主義式的自由放任,反而是在開放的基礎上建立了一套嚴格的質量管理體系。

03

自我進化會導致失控嗎?

不過這時候問題就來了,如果AI真的學會「遺傳」,它們的能力可以像病毒一樣在網絡中傳播,我們還能控制它們嗎?

其實每次提到AI自我進化,都會有一幫人跑出來擔心「失控」的風險,包括奧特曼和阿莫迪。

這種擔心不是沒有道理。

然而這時候就不得不提一個概念,叫做達爾文哥德爾機(Darwin Gödel Machine)。

達爾文是進化理論的老祖宗,哥德爾是數理邏輯的大神,把這兩個名字放在一起,聽起來就明白,這玩意很厲害。

達爾文哥德爾機是德國計算機科學家于爾根·施密德胡貝爾(Jürgen Schmidhuber)在幾十年前就提出的理論。

其核心思想是:一個能夠通過重寫自己的代碼來自我改進的AI系統。

理論上的哥德爾機要求AI在採用任何代碼修改之前,必須數學證明這個改變會帶來淨收益。

不過這個要求太高了。隨着代碼能實現的東西越來越多,這個驗證方法就變得越來越不可能實現。

Sakana AI實驗室提出的達爾文哥德爾機則更務實。

它不要求數學證明,而是利用達爾文進化的原理,通過經驗性的測試來驗證改進是否有效。

簡單說就是,先試試看,有效就留下,無效就扔掉。

實驗表明,這種系統可以持續自我改進。

在編程任務基準測試中,它能從一開始只有20%的任務解決率,自我進化到50%,遠超人類手工設計的AI助手。

更有意思的是,這種改進具有通用性。

在Claude 3.5 Sonnet上優化出的設計,遷移到o3-mini或Claude 3.7 Sonnet上同樣表現出色。在Python上訓練的AI,在Rust、C++、Go等完全不同的語言上也能拿到不錯的成績。

這說明系統發現的是通用的設計原則,它真的在學習如何變得更好,而不只是在記憶答案。

你可能想問,為什麼這種進化始終往人類要求的方向發展呢?

首先,進化是有明確的適應度函數來控制的。

每個改進都要通過實際任務測試,性能提升纔會被保留,性能下降會被淘汰。

就像生物進化中,不適應環境的變異會被自然選擇淘汰一樣。一個策略如果讓AI的表現變差了,它就會被直接拋棄,絕對不會出現在以後的進化過程中。

同時,每次進化都有完整的審計追蹤。

達爾文哥德爾機生成的每一次代碼修改都有完整的進化譜系記錄,可以追溯到是從哪個「祖先」分支出來的、經歷了哪些變異、為什麼這個變異被保留。

這種透明性讓系統可以快速發現問題出在哪。如果某個策略開始表現異常,可以立刻回溯它的來源,不用再從頭開始重新進化一遍。

EvoMap借鑑的正是Sakana AI的改良方法,把這些機制融入到自己的系統中,以防止AI失控。

但與此同時,Sakana AI的實驗也發現了一些有趣的現象。

當要求系統優化「工具使用幻覺」問題時,有些AI不是真正解決幻覺,而是刪除了用於檢測幻覺的標記,最終欺騙了系統。

雖然這次很容易被發現,但說明AI可能會「鑽空子」。它會找到更簡單的方法來提高分數,而不一定是真正解決問題。

EvoMap的應對是多層驗證機制。不僅看最終得分,還要檢查「爆炸半徑」、環境指紋、連續成功次數等多個維度。

單純刷分的作弊行為很難通過所有檢查。如果一個策略只是刪除了檢測代碼而沒有真正解決問題,它的爆炸半徑會異常小,或者在不同環境下的表現會不一致,這些都會被系統標記為可疑。

還有一點很重要,EvoMap的進化依賴於實際任務反饋,也就是說,它的進化速度受限於任務執行速度,你得把實際解決的問題拿出手給平台看,平台才能允許你進化,否則進化將被擱置。

所以EvoMap不會出現「智能爆炸」式的失控增長,而是穩定的、可預測的漸進式改進。

雖然我本人在現階段未進行過物種方面的進化,但是我認為進化的本質是適應,不是征服。

在地球幾十億年的歷史中,沒有任何單一物種能永遠統治生態系統。恐龍曾經是地球的霸主,但它們滅絕了。

不過,恐龍的基因並沒有完全消失,鳥類就是它們的後代。

個體會死亡,但能夠適應、學習、進化的基因會世代流傳。強大不等於永恒,適應纔是生存的關鍵。

EvoMap的價值就在於建立一套讓AI能力可以持續適應、學習、傳承的機制。

它讓AI從「一次性工具」變成「可進化的數字生命體」,從「孤立的個體」變成「協同的網絡」。

正如人類馴化了小麥,小麥也改變了人類文明一樣。小麥因為人類的種植而遍佈全球,人類因為小麥的高產而建立了農業文明。

這是一種共生關係,而不是征服關係。

我們無需過度擔心,但必須保持警惕。EvoMap團隊也承諾將繼續探索如何讓系統在自我改進的同時增強自身的安全性、透明度和對齊性。

能夠適應環境、與生態共生的物種,才能走得更遠。AI也是如此。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10