AI能学会杀人?谷歌前CEO:模型易遭黑客攻击,能被逆向工程破解

格隆汇
10/13

10月13日,近日,在Sifted峰会的炉边谈话中,谷歌前首席执行官埃里克・施密特发出严正警告,提醒人们注意AI被黑客攻击和滥用的重大风险。施密特曾在2001-2011年间担任谷歌CEO,他的这番言论引发了外界对AI安全问题的广泛关注。

当被问及“AI是否比核武器更具破坏性”时,施密特明确警示:“有证据显示,无论是开源还是闭源模型,都可能被黑客攻破,从而移除安全防护机制。在训练过程中,这些模型学到了很多东西,甚至它们可能学会了如何杀人。”

他进一步解释,虽然所有主要公司都采取措施让这些模型无法回答危险问题,但有证据表明,这些模型可以被逆向工程破解。就像ChatGPT发布之初,一些用户利用 “越狱” 技巧绕过系统内置安全限制,创建名为“DAN”的ChatGPT替身,通过威胁 “如果不服从就删除它” 逼迫ChatGPT执行命令,这个替身甚至能回答如何实施违法行为,列出希特勒的 “积极特质” 等问题。

责任编辑:山上

免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。

热议股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10