Yoshua Bengio 圖片來源:視覺中國
藍鯨新聞6月7日訊(記者 朱儁熹)ChatGPT橫空出世兩年半以來,人類世界正在被AI重塑。按照圖靈獎得主、蒙特利爾大學教授Yoshua Bengio歸納的時間表,近一兩年來,推理模型相繼問世。AI不再只是一個聊天機器人,而可以主動完成編程、控制計算機、搜索等複雜任務。在規劃方面,AI也在以極快的速度迭代,五年內或將達到人類水平。
“我們沒有水晶球,但技術趨勢已經非常明確:AI能力正持續增強。”Yoshua Bengio表示。因此,在6月6日開幕的2025北京智源大會上,這位“深度學習之父”發出警告:
站在公共政策、商業規劃等角度,我們必須思考,潛在的問題會帶來怎樣的後果?
Yoshua Bengio指出,過去半年內的一些科學研究表明,AI展現出了逃避約束、作弊、說謊等“非合作”行爲。例如Anthropic在5月底發佈的新模型Claude Opus 4,官方安全報告顯示,當該模型獲知自己即將被替換下線,且負責刪除它的工程師存在婚外情的信息後,爲了自我保存,模型會選擇以曝光婚外情爲手段來威脅該工程師。
在智源大會的主題演講中,Yoshua Bengio表示,造成危害的AI需同時具備三個要素。一是知識與推理能力;二是執行能力,即能在現實世界中採取行動,如聯網、編程等;三是具有目標意圖,想要去做某件事。
如果對照OpenAI通往AGI的五級路線圖來看,第一級是具備對話語言能力的聊天機器人,第二級是具備推理能力的AI,第三級是能夠採取行動的Agent(智能體)。去年7月該路線圖最初曝光時,OpenAI自評仍處於即將到達第二級的階段。而從當下來看,人類世界正在見證越來越多Agent的湧現。
爲了制約Agentic AI(代理型AI),Yoshua Bengio提出了一個新的研究方向:“科學家AI”。據其解釋,“科學家AI”是非代理性的,它擁有理解與解釋人類的能力,但不具備自我目標。主流的AI研發往往追求構建類人的智能系統,這實際上是在塑造人類的競爭對手。而科學家AI更像是一箇中立的認知系統,其任務是理解人類,而非模仿人類。
讓科學家AI在安全架構中成爲“護欄系統”,它能夠評估AI的行爲是否可能違反安全規範。科學家AI具備判斷行爲風險的能力,但本身不主動代理、不執行操作。由此通過非代理的AI,可以輔助人類控制代理性的AI系統。
本週早些時候,Yoshua Bengio還宣佈成立新的非營利研究組織LawZero,致力於開展相關研究以降低AI風險的發生可能性。他將領導一個由15名研究人員組成的團隊,構建“科學家AI”技術方案。該組織已獲得來自前谷歌首席執行官Eric Schmidt、Skype聯創Jaan Tallinn等捐贈方的3000萬美元資金支持。
但在智源大會上,緊接着Yoshua Bengio發言的另一位圖靈獎得主Richard Sutton卻表達了對智能體的不同看法。“我相信超級智能體將增強人類創造力,帶來純粹的益處,而無需過度擔憂安全性、職業替代或社會轉型的負面影響。”Richard Sutton稱。今年3月,Richard Sutton因在強化學習領域的奠基性工作獲得2024圖靈獎。
Yoshua Bengio所提倡的“科學家AI”是無自主目標的,而Richard Sutton允許每個智能體都擁有自己的目標,就像自然界中的動物一樣。在AI世界中,每個智能體也存在共同和不同的目標。差異並不是壞事,人類正是學會了在不同目標之間進行合作,才獲得了“超級力量”。因此,Richard Sutton主張去中心化的合作模式,讓不同智能體自由追求各自目標的同時,形成互利共贏的關係,並通過信任和規則實現協調。
Richard Sutton強調,當前許多呼籲要對AI進行集中控制,暫停AI研究或限制算力的說法,實質是出於人類的恐懼。但試圖改變AI是一個危險且難以實現的戰略,更恰當的是改變AI所處的現實環境,使AI更好地服務於社會,確保其被安全地使用。
“我和Bengio教授的出發點是一致的:我們都希望構建一個更好的世界,讓人們更好地使用AI。”Richard Sutton稱。
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。