簽了!600員工反對沒用,谷歌把AI安全開關「授權」給了五角大樓

華爾街見聞
04/28

谷歌與美國國防部簽署了一項允許五角大樓將谷歌AI用於機密工作的協議,在內部員工強烈反對聲中完成交割。該協議的安全限制條款措辭模糊,被法律專家指出不具備法律約束力,引發外界對AI軍事應用邊界的深切擔憂。

據The Information報道,知情人士透露稱,該協議允許五角大樓將谷歌AI用於"任何合法的政府目的",這一表述與此前其他AI公司與國防部談判中引發爭議的措辭如出一轍。協議同時要求谷歌根據政府要求協助調整其AI安全設定與過濾器,條款寬鬆程度被認為超過OpenAI今年2月與五角大樓達成的協議。

就在協議簽署前夕,逾600名谷歌員工聯名致信CEO Sundar Pichai,要求其拒絕該協議,認為拒絕承接機密工作是確保谷歌AI不被濫用的唯一途徑。此次簽約標誌着谷歌在軍事AI合作立場上的重大轉向,也令市場重新審視科技巨頭與國防部門深度綁定所帶來的商業與聲譽風險。

員工反對未能阻止協議落地

協議簽署前,谷歌內部已出現明顯阻力。超過600名員工在本周一聯名致信Pichai,要求公司拒絕該協議,並主張只有徹底迴避機密工作,才能從根本上防止谷歌AI遭到濫用。

這一幕令人聯想到八年前的歷史。2018年,谷歌在數千名員工簽署反對信後,最終退出了國防部涉及無人機目標識別的"Maven項目"。此次谷歌選擇逆員工意願而行,完成簽約,顯示出公司在國防業務上的戰略取向已發生根本性轉變。

谷歌公共部門發言人在聲明中表示,新協議是對去年11月已簽署的非機密用途合同的修訂補充。"我們為能夠成為支持國家安全的領先AI實驗室及科技雲企業廣泛聯盟的一部分而感到自豪,"該發言人表示,"我們仍然致力於公私部門的共識——AI不應被用於國內大規模監控或缺乏適當人類監督的自主武器。"

條款寬鬆程度超越OpenAI協議

谷歌此次協議在條款設計上與競爭對手存在明顯差異。OpenAI今年2月與五角大樓達成的協議同樣允許"所有合法目的"的使用,但OpenAI在公告博客中明確聲明保留對其"安全體系的完全自主權",並列明禁止將AI用於大規模監控、自主致命武器系統指揮或"社會信用"類高風險自動化決策。

谷歌協議則要求公司根據政府要求協助調整AI安全過濾器。谷歌公共部門發言人對此解釋稱,相關過濾器原本面向消費者場景設計,谷歌通常會針對企業客戶進行定製調整。

目前,谷歌已與馬斯克旗下xAI及OpenAI一道,成為與五角大樓簽署機密AI使用協議的科技公司。

安全條款被指不具法律約束力

協議中涉及AI使用限制的核心條款措辭引發法律界質疑。據知情人士透露,協議包含如下表述:"雙方同意,AI系統無意用於、且不應被用於國內大規模監控或自主武器(包括目標選擇),除非有適當的人類監督與控制。"

然而,協議隨即補充:"本協議不賦予任何一方控制或否決政府合法運營決策的權利。"

獨立智庫法律與AI研究所高級研究員、律師Charlie Bullock指出,"無意用於、且不應被用於"這一措辭意味着相關條款"在法律上不具任何約束力"。他表示,這種表述僅代表雙方認為此類用途不可取,而非將其認定為違約行為。

紐約大學布倫南司法中心研究AI與國家安全的高級顧問Amos Toh則指出,"適當的人類監督與控制"這一表述,並不必然意味着在目標識別與武器發射之間必須有人類介入。他表示,五角大樓迄今未排除部署全自主武器系統的可能性。"對武力使用實施適當人類判斷的要求,僅僅意味着在武器系統的總體部署方式上存在某種形式的人類參與和決策,"Toh說。

Anthropic前車之鑑懸於行業頭頂

此次谷歌協議的簽署,發生在行業對AI軍事應用邊界爭議持續發酵的背景之下。今年2月,Anthropic與五角大樓的談判公開破裂,導火索正是Anthropic拒絕接受"任何合法用途"條款,並堅持保留針對大規模監控與自主武器兩條明確紅線。

談判破裂後,五角大樓將Anthropic列為供應鏈風險,Anthropic目前正就此在法庭上提出抗爭。彼時,逾900名谷歌員工與逾100名OpenAI員工曾聯署公開承諾,要求各自僱主與Anthropic的兩條紅線保持一致立場。

如今,谷歌選擇簽約,意味着這一行業內部的道德共識正在加速瓦解,而安全條款的法律效力存疑,則令外界對AI在高風險軍事場景中的實際約束機制更加憂慮。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10