10月13日,近日,在Sifted峯會的爐邊談話中,谷歌前首席執行官埃裏克・施密特發出嚴正警告,提醒人們注意AI被黑客攻擊和濫用的重大風險。施密特曾在2001-2011年間擔任谷歌CEO,他的這番言論引發了外界對AI安全問題的廣泛關注。
當被問及「AI是否比核武器更具破壞性」時,施密特明確警示:「有證據顯示,無論是開源還是閉源模型,都可能被黑客攻破,從而移除安全防護機制。在訓練過程中,這些模型學到了很多東西,甚至它們可能學會了如何殺人。」
他進一步解釋,雖然所有主要公司都採取措施讓這些模型無法回答危險問題,但有證據表明,這些模型可以被逆向工程破解。就像ChatGPT發佈之初,一些用戶利用 「越獄」 技巧繞過系統內置安全限制,創建名為「DAN」的ChatGPT替身,通過威脅 「如果不服從就刪除它」 逼迫ChatGPT執行命令,這個替身甚至能回答如何實施違法行為,列出希特勒的 「積極特質」 等問題。
責任編輯:山上