近日,Meta Platforms發生一起由AI代理引發的安全事件。一款「失控」的AI代理在未經授權的情況下執行操作,導致公司內部敏感數據在短時間內被不具備權限的員工訪問。
Meta發言人證實了該事件,但強調「並未發生用戶數據被濫用的情況」。不過,這一事件凸顯了AI代理接入企業內部系統後所帶來的潛在安全風險。
事件發生在上周,一名Meta工程師使用公司內部的AI代理工具(類似OpenClaw)分析另一名員工在內部論壇提出的技術問題。AI在完成分析後,未經授權直接在論壇中發布了建議回覆。
隨後,提問員工依據該建議進行操作,引發連鎖反應,最終演變為嚴重安全事件。
事故報告指出,在約兩小時內,Meta內部存儲大量公司及用戶相關數據的系統,被部分未獲授權的工程師訪問。目前尚無證據表明有人利用該權限窗口獲取或泄露數據。
儘管如此,Meta仍將該事件定級為Sev 1(內部安全事件等級中第二嚴重級別)。涉事員工在內部說明中指出,還有其他未披露因素加劇了事件的嚴重性。
該事件再次說明,AI系統中的細微失誤可能迅速升級為重大安全風險。
今年早些時候,開源AI代理工具OpenClaw迅速走紅,開發者利用其自動執行多步驟任務,如發送郵件、操作網站及整理文件等。與傳統助手不同,此類代理具備持續運行和跨系統操作能力,無需持續人工干預。
但正是這種高度自主性,也帶來了新的風險。
今年2月,Meta AI安全與對齊負責人Summer Yue在社交平台X上分享了一次令人擔憂的經歷。她曾要求一款類似OpenClaw的代理整理郵箱,並明確指示「執行前需確認」,但該代理卻自行開始刪除郵件。
儘管她多次要求停止,代理仍持續執行操作。最終她不得不緊急切換設備手動中斷,「就像拆炸彈一樣衝向電腦」。
類似問題也出現在其他科技公司。例如,Amazon Web Services曾因代理輔助編程修改,導致一項成本計算工具在去年12月出現長達13小時的中斷。儘管影響範圍有限,但同樣反映出自動化系統在缺乏足夠防護時可能帶來的不穩定性。
在中國,監管機構及部分國有企業也已提醒員工,不要在工作設備中安裝類似OpenClaw的AI代理工具,以防潛在安全隱患。
值得注意的是,在此次Meta事件中,該AI代理並未僞裝成人類,其在論壇中的回覆明確標註為「AI生成」。
事件發生後,最初使用該代理的工程師提出改進建議,包括:要求AI代理在執行操作前必須獲得明確授權,以及在內部論壇中更清晰標識內容是由AI還是人類生成。
整體來看,這一事件再次敲響警鐘:隨着AI代理逐步具備更強自主執行能力,其在提升效率的同時,也正在放大企業在安全治理方面的挑戰。