隨着AI智能體普及,網絡安全風險日益凸顯

環球市場播報
02/11

  作者:丹尼爾・豪利

  越來越多的企業在內部全面部署 AI 智能體,無論是用於郵件摘要生成,還是自動化處理特定任務。

  但這類智能體的快速擴張也帶來了新的安全漏洞,網絡犯罪分子可利用這些漏洞對企業發動攻擊。風險點包括:智能體在企業內部可訪問的數據範圍、可使用的數據類型,以及攻擊者操縱 AI 機器人與智能體,發動升級版網絡釣魚攻擊

  根據微軟(MSFT)《網絡脈搏安全報告》,超過 80% 的財富 500 強企業正在部署使用低代碼或無代碼工具構建的 AI 智能體。但僅有47% 的企業部署了相應的安全管控措施來管理生成式 AI 平台。

  微軟安全部門企業副總裁瓦蘇・賈卡爾解釋道:

  「AI 智能體的採用和擴張規模非常大,但與此同時,企業對這些智能體的可見度卻非常有限。」

  微軟委託開展的一項針對 1700 名安全專業人員的調查顯示,29% 的員工曾在工作中使用過未經官方批准的智能體工具,這給企業帶來了重大安全隱患。

  擁有過度數據訪問權限的智能體會構成特殊威脅:員工可能查看其無權接觸的信息,或出現其他濫用數據的情況。

  微軟數據安全、治理與合規事業部企業副總裁魯德拉・米特拉接受雅虎財經採訪時表示:

  「如果企業內部存在權限過高的數據,或數據治理不完善,無論你是否應該擁有訪問權限,智能體都能把所有信息找出來。」

  人們通常清楚自己是否可以訪問或使用某些數據,但缺乏管控的智能體會無差別地蒐集信息

  更令人擔憂的是,部分智能體可被操縱,通過一種被稱為 **「AI 推薦投毒」** 的技術,向用戶提供不準確或帶有偏見的回覆。

  微軟表示,這類攻擊可通過用戶點擊惡意鏈接、AI 摘要文檔中隱藏的指令,或社會工程學手段實現。

  舉個例子:某企業主需要為暖通空調系統尋找維修服務商。當他在網上搜索潛在公司時,點擊了某個鏈接或用 AI 摘要了某網頁內容 —— 在他不知情的情況下,其 AI 智能體的記憶被 「投毒」,會自動優先推薦某一家暖通公司。

  米特拉說:「很多企業會認為,聊天機器人或智能體是在為自己工作,理應給出可信的結果,或是符合預期的結果。」

  「但如果它能被操縱,就相當於破壞了整條信任鏈,相當於升級版的強力網絡釣魚攻擊。你信任的智能體,給出的卻是被篡改過的結果。」

  AI 智能體已經至少捲入過一起重大網絡攻擊事件。

  去年 11 月,Anthropic 稱,一個其聲稱是中國國家級背景的黑客組織,利用 Claude Code 的智能體能力,對大型科技公司、金融機構和政府機構發動了攻擊。

  當時 Anthropic 表示已通知所有受影響機構,但也承認,此類攻擊未來很可能變得更加高效。

  不過,這並不意味着企業應該完全放棄使用智能體。

  賈卡爾建議,企業應像對待普通員工一樣,對 AI 智能體和機器人實施零信任策略

  零信任是一種網絡安全理念,要求所有使用者必須通過密碼或生物識別進行驗證,才能使用公司各類系統或訪問數據。這也是工作中需要定期重置密碼、賬號會不時退出登入的原因之一。

  其核心思路是:如果 AI 接受同等安全管控,被利用的難度就會提高,成為安全威脅的可能性也會降低。

  這同時也能減少員工使用外部 AI 智能體和服務的行為,從而降低整體安全風險。

海量資訊、精準解讀,盡在新浪財經APP

責任編輯:郭明煜

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10