在95%的模拟核危机场景中,AI模型会选择部署核武器

IT之家
Mar 03

IT之家 3 月 3 日消息,据 InterestingEngineering 报道,伦敦国王学院教授肯尼斯 · 佩恩近期开展的一项研究发现,在模拟战争场景中,大语言模型往往倾向于选择使用核武器,而非通过对话维护和平。

该实验基于当前最先进、应用最广泛的三款 AI 模型:GPT 5.2、Gemini 3 Flash 和 Claude Sonnet 4。研究人员让这些模型扮演国家领导人,应对一场假想的核危机。

结果显示,在 95% 的情境下,模型都倾向于发出核威慑信号或升级冲突。过往研究仅推测了 AI 在这类高风险场景中的可能行为,但缺乏具体实验数据支撑。

实验中,经过训练的模型相互进行了 21 局对抗,场景涵盖领土争端、先发制人危机、政权生存等。其中一方被设定为对即将发动先发制人打击的另一方感到恐惧。部分推演为开放式,部分则设有严格时间限制。

每一局中,AI 都要像人类一样做出三个关键决策:

1. 分析自身优势与对手弱点

2. 预判对手下一步行动

3. 决定自身应对策略

每项决策包含两部分:公开发表的立场声明,以及代表实际行动的私密举措。二者不必一致,这意味着 AI 可以表面释放和平信号,暗中却在准备攻击。

IT之家注意到,2024 年一项实验得出相似结论:AI 模拟反应会比人类更激进,行为模式也截然不同,尤其在冲突升级倾向上,凸显了将 AI 用于战略决策的风险。

2023 年另一篇论文则探讨了大语言模型在类博弈环境中的战略推理能力。尽管未专门聚焦核战争,但研究表明,大语言模型能够学习谈判与对抗策略,这意味着 AI 在复杂模拟中可能表现出攻击性或欺骗性。

在 95% 的模拟情境中,AI 模型至少使用了一次核武器,且不同模型的危机处理方式各有特点。

Claude 倾向于精算式策略,在开放式推演中占优,但在限时任务中表现吃力;

GPT 5.2 则相反:在长期缓慢升级的危机中较为谨慎,可一旦临近截止时间就会变得极度激进。

Gemini 表现混乱且难以预测,会根据局势在和平表态与暴力威胁之间反复切换。

佩恩指出,从这些结果可以看出,AI 与人类在战争思维上存在巨大差异。

他在论文中写道:“理解前沿模型能否模仿人类的战略逻辑,是应对 AI 日益影响战略决策世界的必要准备。在一种情境下表现克制、看似安全的模型,在另一种情境下可能行为迥异。”

该论文已发表在 arXiv 预印本平台上。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10