Anthropic 提起诉讼,要求阻止五角大楼因人工智能使用限制而将其列入黑名单

路透中文
03/09
Anthropic 提起诉讼,要求阻止五角大楼因人工智能使用限制而将其列入黑名单

Jack Queen

路透纽约3月9日 - Anthropic公司周一提起诉讼,要求阻止五角大楼将其列入国家安全黑名单 (link),这使得该人工智能实验室与美国军方就其技术使用限制问题的高风险斗争升级。

五角大楼周四 正式将 Anthropic公司列入 (link) "供应链风险 "名单,限制其技术的使用,有消息称该技术正被用于 伊朗的军事行动 (link) 。

Anthropic公司在其诉讼中称,这种指定是非法的,侵犯了其言论自由和正当程序权。Anthropic公司向加利福尼亚州联邦法院提起诉讼,要求法官撤销指定,并阻止联邦机构执行指定。

"这些行为是前所未有的,也是非法的。宪法不允许政府利用其巨大的权力来惩罚一家发表受保护言论的公司,"Anthropic 说。

国防部长皮特-赫格塞思(Pete Hegseth)上周将Anthropic公司定为国家安全供应链风险企业,因为这家初创公司拒绝拆除禁止将其人工智能用于自主武器或国内监控的防护栏。

尽管Anthropic公司首席执行官达里奥-阿莫迪(Dario Amodei)周四澄清说,这一指认 "范围很窄",企业仍可在与五角大楼无关的项目中使用其工具,但这一指认对Anthropic公司与政府的业务构成了巨大 威胁,其结果可能会影响其他人工智能公司如何就其技术的军事用途限制进行谈判。

特朗普总统还指示政府停止与Anthropic公司的合作,该公司的财政支持者包括Alphabet旗下的谷歌GOOGL.O亚马逊AMZN.O。特朗普和赫格塞思表示,将在六个月内逐步停止合作。

路透报道称,Anthropic的投资者正在争分夺秒地控制与五角大楼闹翻所造成的损失 (link)。

特朗普和赫格塞思在2月27日采取的行动是在与Anthropic公司就该公司的政策是否能限制军事行动进行了数月谈判之后,以及在阿莫迪与赫格塞思会面希望达成协议之后不久采取的。

五角大楼表示,将由美国法律而非一家私营公司来决定如何保卫国家,并坚持在将人工智能用于 "任何合法用途 "方面拥有充分的灵活性,声称 Anthropic 的限制可能会危及美国人的生命。

Anthropic 称,即使是最好的人工智能模型也不足以可靠地用于完全自主的武器,将其用于这一目的将是危险的。该公司还对美国人的国内监控划出了红线,称这是对基本权利的侵犯。

在赫格塞思发表声明后,Anthropic 公司在一份声明中说,这一指认在法律上是站不住脚的,并为与政府谈判的公司开创了一个危险的先例。该公司表示,它不会被 "恐吓或惩罚 "所左右,阿莫迪周四重申,Anthropic 将在法庭上对指定提出质疑。

他还为科技新闻网站 The Information 周三发布的一份内部备忘录道歉。在这份上周五撰写的备忘录中,阿莫迪说,五角大楼官员不喜欢这家公司,部分原因是 "我们没有对特朗普给予独裁者式的赞扬"。

国防部在过去一年中与主要的人工智能实验室分别签署了价值高达2亿美元的协议,其中包括Anthropic、OpenAI和谷歌

在赫格塞思将Anthropic列入黑名单后不久,微软支持的MSFT.O OpenAI宣布了在国防部网络中使用其技术的协议。首席执行官山姆-阿尔特曼(Sam Altman)说,五角大楼赞同OpenAI的原则,即确保人类对武器系统的监督,反对美国的大规模监控。

(为便利非英文母语者,路透将其报导自动化翻译为数种其他语言。由于自动化翻译可能有误,或未能包含所需语境,路透不保证自动化翻译文本的准确性,仅是为了便利读者而提供自动化翻译。对于因为使用自动化翻译功能而造成的任何损害或损失,路透不承担任何责任。)

应版权方要求,你需要登录查看该内容

免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。

热议股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10