騰訊雲王軍:攻防對抗升級:大模型如何重構網絡安全戰場

CIO時代網
2025/06/20

廿載為夢,續筆新篇!各行各業的運營正全面走向數據驅動模式,新一輪AI技術正在把越來越多的數據轉化為智能,賦能各行業的智能化轉型。啱啱舉辦的重磅CIO行業盛會,讓我們共同見證了一段行業數字化蛻變之旅......

2025年6月13-15日,由CIO時代主辦、新基建創新研究院作為智庫支持的「數據驅動 智能轉型 | 2025第十一屆中國行業互聯網大會暨CIO班20周年年會」在黃山圓滿舉辦!現場主論壇上,騰訊雲安全高級產品經理王軍帶來「攻防對抗升級:大模型如何重構網絡安全戰場」主題演講。

騰訊雲安全高級產品經理 王軍

精彩觀點

AI已開啓網絡攻防的「智能升維」時代,構建AI時代的動態安全體系至關重要。騰訊雲探索出多種安全防護方案,全方位保障大模型的安全應用,助力客戶應對日益複雜的新型威脅,安全用好大模型實現業務提質增效。

隨着技術的飛速發展,AI尤其是大模型技術的興起,正在為網絡安全領域帶來前所未有的挑戰與機遇。

從早期的專家系統、知識表徵,到如今的深度學習、大模型,AI技術經歷了多次變革。如今,以大模型生成技術為核心的人工智能,正在成為下一輪經濟增長的關鍵動力,也為解決產業痛點帶來了全新的思路。然而,伴隨大模型的廣泛應用,網絡安全戰場也迎來了「智能升維」的新時代。黑客與防禦者之間的對抗,從傳統的技術比拼,逐漸演變為智能化、自動化的較量。

大模型的應用雖然帶來了諸多便利,但也衍生出了新的風險。如AI幻覺、違規內容、誤導信息、個人隱私泄露、知識產權侵權、偏見歧視、倫理道德爭議以及惡意利用等風險。這些風險不僅可能對個人造成傷害,更可能對企業乃至國家安全構成威脅。例如,AI生成的內容可能被用於製造虛假新聞、網絡釣魚、欺詐等惡意行為,這些行為隱蔽性強、危害性大,必須引起我們的高度重視。

目前已經出現了大模型被黑灰產利用,進行隱蔽滲透、AI輔助攻擊、模型推理劫持等新型攻擊手段。這些攻擊手段利用大模型的強大能力,使得攻擊成本大幅降低,攻擊頻率和複雜度顯著提高。例如,攻擊者可以通過AI編碼工具生成針對特定系統的0day漏洞利用代碼,繞過傳統安全檢測系統,對目標系統進行精準攻擊。這種攻擊方式不僅難以防範,而且造成的損失也極為慘重。

面對大模型帶來的網絡安全挑戰,騰訊雲提出了構建AI時代的動態安全體系的應對策略——包括技術層、治理層、合規層和倫理層四個方面。

  • 在技術層,應廣泛應用差分隱私和同態加密技術,確保數據的隱私性和安全性;開發實時監控和檢測機制,識別並響應各種攻擊類型;研發針對對抗樣本的檢測模型,推動「安全左移」理念。

  • 在治理層,應建立AI安全運營團隊,統一管理模型訓練與部署風險;制定AI攻防演練標準,模擬真實對抗場景;推動行業共享威脅情報,建立AI攻擊特徵庫。

  • 在合規層,應建立AI風險控制框架和審計標準,確保AI系統的合法合規運行;遵循AI安全法規和標準要求,如中國《生成式人工智能服務管理暫行辦法》等。

  • 在倫理層,應倡導「負責任AI」開發準則,平衡創新與安全;建立AI倫理監督審查機制,確保模型行為符合倫理道德準則;限制AI技術的惡意應用,倡導健康、安全的技術發展環境。

騰訊通過構建大模型安全治理框架、部署環境安全、訓練過程安全、安全基準、安全運營安全管控等措施,為AI模型的全生命周期提供安全保障。同時,騰訊還推出了LLM-WAF大模型防火牆、AI-SPM大模型安全態勢感知,為大模型業務提供全鏈路防護能力。

大模型技術的興起為網絡安全領域帶來了新的挑戰與機遇,必須以開放的心態、創新的思維和務實的行動,共同應對這些挑戰,把握這些機遇。期待攜手並進,共同構建一個更加安全、可信的AI時代!6月24日下午16:00「開箱吧,騰訊雲」面向AI時代重磅推出——大模型安全產品!掃描下方海報二維碼即可報名直播!

海量資訊、精準解讀,盡在新浪財經APP

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10