“AI教父”辛顿:科技公司眼中只有短期利润,并不关心AI长期影响

IT之家
11 hours ago

IT之家 3 月 23 日消息,当地时间 3 月 22 日,据《财富》杂志报道,多数科技行业领袖并未真正思考 AI 的最终走向。诺贝尔奖得主、“AI 教父”的杰弗里 · 辛顿认为,当前行业的核心驱动力并不在长期影响,而是短期回报。“对公司所有者来说,推动研究的动力是短期利润。”

他对《财富》表示:“对公司所有者来说,驱动研究的是短期利润。研究人员关注的也是眼前的问题,而不是研究最终会带来什么结果。我们不会从一开始就设定‘人类未来会怎样’这样的目标,而是围绕具体问题展开,比如如何让计算机识别图像,或者生成逼真的视频,这才是真正驱动研究的动力。”

IT之家从报道中获悉,辛顿长期警告 AI 风险,并认为在实现超级智能之后,AI 导致人类灭绝的概率可能达到 10% 至 20%。2023 年,在将 DNNresearch 出售给谷歌 10 年后,他离开谷歌,以便更自由地表达对 AI 风险的担忧,并指出难以阻止技术被不良行为者滥用。

对于风险类型,他区分了两类:“一类是坏人滥用 AI 的风险,这种情况已经出现,例如虚假视频和网络攻击,甚至可能扩展到病毒领域;另一类则是 AI 本身成为不良行为者,这两者是完全不同的风险。”

在应对路径上,辛顿认为难点在于每一类问题都需要单独解决。例如,可以通过类似溯源认证的方式对图像和视频进行标记,以遏制深度伪造传播,就像印刷术出现后出版物开始标注作者一样。他同时也指出,这类方案具有局限性:“这个问题或许可以解决,但解决它并不能解决其他问题。”

对于 AI 本身的风险,辛顿认为关键在于重新定义人与 AI 的关系。一旦 AI 达到“超级智能”水平,不仅能力将全面超越人类,还可能产生生存和控制的动机,现有“人类可以控制 AI”的前提将不再成立。

他提出,应为 AI 设计类似“母性本能”的机制,使其对人类产生同情而非控制欲,并以母婴关系作类比:目前唯一一个更聪明的存在被较弱者影响的例子,是婴儿对母亲的影响。“因此,这或许是我们面对超级智能 AI 时可以参考的模型 —— 它们像母亲,而我们像婴儿。”

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10