美媒揭秘美国军方与第二大AI公司Anthropic“撕破脸”内幕

凤凰网科技
Mar 02

美国防部长赫格塞思

凤凰网科技讯 北京时间3月2日,《纽约时报》周日发文,披露了美国国防部与AI公司Anthropic闹翻的内幕。文章称,双方曾一度接近就AI使用限制的争执达成协议,然而,双方负责人的强势个性、相互的不满以及OpenAI的出现,最终让这笔交易功亏一篑。

上周五17点01分截止时间前的几分钟,美国国防部首席技术官埃米尔·迈克尔(Emil Michael)怒火中烧。

迈克尔曾是Uber前高管。数周以来,他一直在就美国防部的一份价值2亿美元的AI合同与Anthropic进行谈判。然而,由于美国防部要求不受限制地使用Anthropic的AI系统,而Anthropic则拒绝让其技术被用于监控美国人等目的,谈判遇到阻碍

一度接近达成协议

据多位知情人士透露,美国国防部长赫格塞思为达成协议设定了上周五的截止日期,而双方当时已接近达成一致。唯一尚未解决的问题,是就合法监控美国公民的几处措辞达成一致。

迈克尔

知情人士称,迈克尔当时正在与Anthropic高管通话,他要求该公司CEO达里奥·阿莫代伊(Dario Amodei)接电话,以敲定最后的措辞。但对方告知,阿莫代伊正在与高管团队开会,需要再等等。

知情人士称,迈克尔对这个答复感到不满。此外,他手中还握有一张王牌:他一直在私下与Anthropic的竞争对手OpenAI敲定备选方案。五角大楼与OpenAI的合作框架已经达成。

因此,当上周五的截止时间过后,美国防部没有再给Anthropic更多时间。下午5点14分,赫格塞思宣布将Anthropic列为安全风险企业,并将其排除在与美国政府的合作之外。

“美国的战士绝不会被科技巨头的意识形态所挟持。”他在社交媒体上发文写道。

当晚晚些时候,OpenAI CEO萨姆·奥特曼(Sam Altman)宣布,他的公司已转而与五角大楼达成协议,将为国防部的机密系统提供AI技术。

最终,Anthropic与美国防部之间的谈判破裂。这一结果源于数周来双方积累的挫败感,以及两位对AI持有不同理念、且彼此不睦的负责人之间的矛盾。

关系不和

《纽约时报》这篇关于Anthropic谈判失败以及OpenAI成功“插足”的报道,是基于对12位了解谈判情况的人士的采访整理而成。该报采访了来自多家公司和政府机构的人士,并且与对AI未来在战争中应用持有不同立场的官员进行了交流。

迈克尔、阿莫代伊和奥特曼通过硅谷的商业往来相识多年,但彼此相处地并不融洽。阿莫代伊与40岁的奥特曼曾是OpenAI的同事,如今却是竞争激烈的对手。上周,随着Anthropic与美国防部的谈判陷入僵局,53岁的迈克尔公开指责阿莫代伊是“有上帝情结的骗子”。 “上帝情结”指一个人自以为无所不能、权力至高无上,常常认为自己比别人更聪明或更有能力,喜欢掌控一切、对他人指手画脚。

阿莫代伊

据知情人士透露,最终,迈克尔选择青睐向特朗普政府示好的奥特曼,而非阿莫代伊。

美国防部与Anthropic之间的冲突很可能还未结束。上周五,Anthropic表示将就五角大楼将其列为“供应链风险”的决定提起诉讼。“供应链风险”这一标签通常用于指代那些美国政府认为对国家安全构成威胁的外国公司,此前还从未用来针对过美国本土企业。

包括中央情报局(CIA)在内的美国情报机构官员也私下曾敦促双方达成协议。一些现任和前任官员表示,他们仍然希望能促成一项和平解决方案。CIA也使用Anthropic的AI技术。

因何闹翻?

去年,Anthropic、OpenAI、谷歌和xAI都参与了一项五角大楼的试点项目。该项目旨在探索AI如何应用于国防领域。Anthropic是唯一一家将其技术部署到机密系统中的AI公司,其AI系统在国防官员中得到了广泛应用。

今年1月9日,赫格塞思发布了一份备忘录,呼吁在军队中广泛整合AI技术,并要求AI公司提供无限制的技术使用权。为强调这一立场,赫格塞思在五角大楼各处张贴了由AI生成的自己的海报,上面写着:“我要你使用AI。”

这份备忘录意味着,与五角大楼合作的AI公司必须重新磋商合同。而拥有最广泛应用技术的Anthropic,自然成为了谈判的焦点。

迈克尔在2025年5月加入美国防部担任首席技术官,此前曾在奥巴马政府时期担任五角大楼特别助理。在此次与Anthropic的谈判中,迈克尔成为主要负责人。

但谈判很快陷入僵局。Anthropic希望设置防护措施,防止其AI被用于大规模监控美国人,或被部署在无需人工干预的自主武器系统中。而美国防部则认为,任何私营承包商都无权决定其工具应如何被合法使用。

今年2月24日,赫格塞思在五角大楼与阿莫代伊开会,寻求解决方案。据知情人士透露,双方在持续不到一小时的会议中态度冷淡。

在会晤快要结束时,赫格塞思发出最后通牒,如果Anthropic未能在上周五17点01分之前向五角大楼做出妥协,将被列为供应链风险企业。他还称,五角大楼可能会援引《国防生产法》强制Anthropic与政府合作,但是这一举措后来被放弃。

次日,OpenAI CEO奥特曼与迈克尔通电话,商讨双方合作事宜。一天之内,他们便草拟出了一个初步框架。OpenAI同意了五角大楼的要求,其AI可被用于所有合法用途,但同时争取到了在其系统中设置技术防护措施的权利,以遵守自身的安全原则。

与此同时,阿莫代伊在AI安全问题上立场更加强硬。他在2月26日的一份声明中表示,Anthropic无法“昧着良心”顺从五角大楼的要求。

“在少数特定情况下,我们认为AI可能削弱而非捍卫民主价值观,”他补充道,“有些用途也完全超出了当前技术能够安全可靠运行的范围。”

当晚,迈克尔在社交媒体上对阿莫代伊发起猛烈抨击,称这位Anthropic领导者是个骗子。“他无非就是试图个人控制美国军队,并且不惜将我们国家的安全置于危险之中。”迈克尔发文写道。

奥特曼

来自谈判双方的人士表示,随着上周五最后期限的临近,Anthropic高管原本以为他们已接近与五角大楼达成妥协,仅在监控问题上的几处措辞尚有分歧。

令事态更加复杂的是特朗普总统发布的一则社交媒体帖子。上周五上午,特朗普告诉赫格塞思,他已准备好一则贬低Anthropic的帖子,并下令所有政府机构在六个月内停止与其合作。

尽管特朗普在下午3点47分发布了这则帖子,但双方仍在继续谈判。据知情人士透露,当时正与Anthropic高管通话的迈克尔表示,五角大楼希望该公司允许收集和分析有关美国人的非机密商业批量数据,例如地理位置和网页浏览数据。

Anthropic告知五角大楼,愿意让国家安全局将其技术用于处理根据《外国情报监视法》收集的机密材料,但该公司希望五角大楼做出具有法律约束力的承诺,不使用其技术处理非机密商业数据。

此时,迈克尔要求与未在通话中的阿莫代伊通话。对方告知,阿莫代伊正在开会。不久之后,赫格塞思宣布谈判破裂。

上周五晚上10点,当Anthropic的律师们开始着手准备对五角大楼提起诉讼时,奥特曼正与迈克尔通电话,敲定OpenAI与国防部合作协议的最终细节。随后,奥特曼在社交媒体上发布了达成协议的消息。赫格塞思之后也在他的个人X账号上转发了奥特曼的声明。

上周六,面对因突然介入而引发的舆论反弹,奥特曼在X上邀请大家就这项协议提问。许多人质疑OpenAI如何在签署国防部协议的同时仍能坚守其安全原则,也有人质疑OpenAI的协议是否真能保护其AI模型不被滥用。

奥特曼则表示,他对这笔交易的理解更为简单直接。“我们并不想要对特定(且合法的)军事行动发表意见的权力,”他写道,“但我们确实希望能够运用我们的专业知识,来设计一个安全的系统。”(作者/箫雨)

更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10