AI能學會殺人?谷歌前CEO:模型易遭黑客攻擊,能被逆向工程破解

格隆匯
10/13

10月13日,近日,在Sifted峯會的爐邊談話中,谷歌前首席執行官埃裏克・施密特發出嚴正警告,提醒人們注意AI被黑客攻擊和濫用的重大風險。施密特曾在2001-2011年間擔任谷歌CEO,他的這番言論引發了外界對AI安全問題的廣泛關注。

當被問及「AI是否比核武器更具破壞性」時,施密特明確警示:「有證據顯示,無論是開源還是閉源模型,都可能被黑客攻破,從而移除安全防護機制。在訓練過程中,這些模型學到了很多東西,甚至它們可能學會了如何殺人。」

他進一步解釋,雖然所有主要公司都採取措施讓這些模型無法回答危險問題,但有證據表明,這些模型可以被逆向工程破解。就像ChatGPT發佈之初,一些用戶利用 「越獄」 技巧繞過系統內置安全限制,創建名為「DAN」的ChatGPT替身,通過威脅 「如果不服從就刪除它」 逼迫ChatGPT執行命令,這個替身甚至能回答如何實施違法行為,列出希特勒的 「積極特質」 等問題。

責任編輯:山上

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10