Grok 4 發出之後,風評非常兩級。有人大噴特噴,覺得它又貴又不好用。有的則嘖嘖稱神,斷言“AGI 已經實現啦”。
AGI 怎麼又實現了,AGI 究竟是什麼還不好說呢——華爾街日報報道,微軟和 OpenAI 又因爲這個要吵起來了。
早在 2023 年,兩家公司就簽訂協議,將 AGI 定義爲“可以產生 1000 億美元利潤的自主系統”。
但僅僅一年後 OpenAI 就不這麼想了,而是在官網上聲稱,AGI 定義爲“在最具經濟價值的工作上表現優於人類的高度自主系統”,並認爲自己將最先實現製造 AGI。
OpenAI 提出的 AGI 五階段理論 圖片來自:Bloomberg
微軟跟 OpenAI 之間的合同,價值超過 130 億美元——而他們甚至沒有對 AGI 到底是什麼達成一致,這是在玩過家家嗎?
一個反直覺的可能性是:不定義清楚,比定義清楚,更有利。
定義權?No;印鈔術,Yes
微軟之所以跳起來,不僅是因爲他們真金白銀在花錢,也是因爲曾經的合同中有一個危險條款:當 OpenAI 的系統達到 AGI 水平時,這家初創公司將能夠限制微軟對其技術的訪問。
微軟正在努力阻止這種情況發生,其中就包括直接挑戰“AGI”的定義。
“AGI 到底是什麼?” 這是近幾年最常見,也最無解的問題之一。別說答案不僅不清晰,甚至連問題本身都開始模糊。
技術社區從未就 AGI 的定義達成共識——是多模態能力的融合?是持續學習與自我優化?還是與人類智力的等價比肩?沒人知道,也沒人敢下斷言。
爲了解決這一麻煩,微軟曾經的嘗試算是提出了一個看似客觀的判斷方法:如果 AI 能創造的利潤達到了 1000 億美元,就可以認爲是實現了 AGI。
這看上去像是玩笑,但其實並不荒謬。
考慮到人工智能是大燙門賽道,熱錢不斷翻湧,“AI”已經不夠吸引人了,“AGI”纔行。天才們不是要做人工智能,更要做通用人工智能。而做通用人工智能,需要大量的資金投入。
但投入不能完全沒有回報,那麼當靠燒錢培養出來的 AGI 真的能扛起掙錢的重任時,怎麼不算實現 AGI 了呢?
在這個前提下,一條檯面下的規則在發生作用:誰能定義 AGI,誰就抓住了一臺“印鈔機”——包括但不限於吸引投資、驅動估值、收穫輿論與政策資源。
在商業策劃案上寫上“AGI”,敲不開的門都自動打開了,進不去的賽道都敞開懷抱了。這一現象背後的邏輯,並不只屬於商業談判的範疇,而是反映着一種權力結構。
OpenAI 與微軟之間的業務關係,圖片來自:The Information
把模糊的術語綁定到經濟收益上,對於微軟而言是更有利的,除此之外也能進一步兜售未來想象,爲自己在巨頭之間的競爭中獲得話語資源。
不得不說,Sam Altman 是有大智慧的:AGI 無法被定義,正是它好用的原因。
AGI 是一種典型的“模糊術語”——你越無法精確說明它是什麼,它就越容易在不同情境下被靈活調用,用於估值、用於談判、用於兜售未來。
這也是爲什麼微軟與 OpenAI 會在 AGI 的定義上出現張力:不是因爲誰更關心技術真相,而是因爲誰擁有宣佈“它已到來”的話語權,就擁有了改寫合作關係、重組利益分配的權力。
數字一定更客觀嗎?
如果技術都不足以定義 AGI,那難道除了吵架,就沒有別的方法了嗎?
此時就輪到數據建模登場了。
英國紐卡斯特大學的一項研究引發了討論,這篇論文對 AGI 以及潛在的社會影響,提出了一個社會經濟學的分析框架。
它的特殊之處在於,嘗試通過數學建模的方式,來推算 AGI 社會影響的臨界點。研究人員基於 AI 發展對不同行業勞動力替代率、資本積累速度和平臺集中度的數據建模,試圖找出一個拐點:在哪個階段之後,AI 技術將不可逆地引發社會結構的斷裂、重組。
研究裏使用了多種不同的生產函數,構建了一個“Power shift”模型,希望能夠模擬 AGI 代替人力所帶來的影響。
用量化數據揭示 AGI 替代效應與勞動收益崩潰的臨界閾值,這和“年營收 1000 億美元即是 AGI”的判斷方式,屬於同一種思維範式:如果你無法理論性地定義它,那就給它設一個數字,數字總是相對“客觀的”。
當然,在細節上,建模還是有很多問題。比如缺少行業數據、歷史真實案例的支撐,使得推演更像是一種“預言”,而缺乏一定的解釋效力。另外,行業內部競爭所帶來的算力價格變化、運營成本,甚至是監管所帶來的影響,都很難體現出來。
因此論文的結論也比較謹慎,它不是說“AGI 實現了”,而指出“一旦超過這個點,社會將進入結構性變革階段”。
不過,建模這種思路在科技界並不陌生。與其在哲學上爭辯“AI 是否具有意識”、“世界模型是不是更高級的範式”,不如在財務模型上設立一個目標函數。
當估值模型跑通、數據指標達標,AGI 就可以“實現”了——不是因爲它真的實現了,而是因爲它具備了被宣佈爲現實的全部前提。
這或許是爲什麼研究人員,將這種趨勢稱爲“技術封建主義”:真正統治世界的,不是技術,而是對技術的定義權。平臺不需要創造新的文明,只需要控制對新文明的描述方式。
而一個概念的定義越含糊,就容易根據不同的場景來調整。雖然合同已經簽好了,但是“AGI”的定義變化了,資金的使用也可以隨之變化,享受的待遇也可以變化,連合作結構也可以變化。
這也是爲什麼我們需要警惕——AGI 可能永遠無法精確定義,但它已被嵌入制度,成爲真實存在的行動基礎。它的模糊性沒有削弱它的效力,反而增強了它的“多功能”:既可作爲投資敘事,也可作爲政策籌碼,還可作爲控制合約的開關。
當某一天你看到一款 AI 產品上線,宣稱“AGI 已至”,不妨先別問技術細節,而是問一句:這是誰的 AGI?又是爲誰而宣佈?
歡迎加入 APPSO AI 社羣,一起暢聊 AI 產品,獲取#AI有用功,解鎖更多 AI 新知