AI能学会杀人?谷歌前CEO:模型易遭黑客攻击,能被逆向工程破解

格隆汇
Oct 13

10月13日,近日,在Sifted峰会的炉边谈话中,谷歌前首席执行官埃里克・施密特发出严正警告,提醒人们注意AI被黑客攻击和滥用的重大风险。施密特曾在2001-2011年间担任谷歌CEO,他的这番言论引发了外界对AI安全问题的广泛关注。

当被问及“AI是否比核武器更具破坏性”时,施密特明确警示:“有证据显示,无论是开源还是闭源模型,都可能被黑客攻破,从而移除安全防护机制。在训练过程中,这些模型学到了很多东西,甚至它们可能学会了如何杀人。”

他进一步解释,虽然所有主要公司都采取措施让这些模型无法回答危险问题,但有证据表明,这些模型可以被逆向工程破解。就像ChatGPT发布之初,一些用户利用 “越狱” 技巧绕过系统内置安全限制,创建名为“DAN”的ChatGPT替身,通过威胁 “如果不服从就删除它” 逼迫ChatGPT执行命令,这个替身甚至能回答如何实施违法行为,列出希特勒的 “积极特质” 等问题。

责任编辑:山上

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10