一個「AII in AGENT」的網絡安全行業,應該是什麼樣子?

市場資訊
08/09

  炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!

(來源:陸玖商業評論)

還記得2023年8月,那是生成式AI爆發後的第一屆ISC大會。

彼時,所有人對於生成式AI的看法,充滿諸多不確定性,會後採訪周鴻禕時,AI相關的話題,也成為記者們繞不開的熱門方向。

那一年,也是「紅衣大叔」周鴻禕在公衆視野裏「重出江湖」的一年。他先是堅定宣佈「擁抱AI」,並提出「人工智能不是泡沫,是下一場工業革命。」並在極短時間內推出自研通用大模型「360智腦」,使得360成功搶佔了國內AI產業的先機。

兩年過去,當行業還在「去幻覺」,卷對話體驗時,周鴻禕已然看到AI AGENT的巨大潛力。當潮流逐漸向AGENT匯聚時,他已經拿着蜂羣化的納米智能體,站在AGENT潮流的前端。

某種意義上,這也暗合本屆ISC·AI大會的主題:AII in AGENT——從被動防禦,到主動免疫,用更智能化的AI AGENT,重構從網絡安全,到整個互聯網的一切。

01 會協作的智能體「蜂羣」

過去兩年,生成式AI從短文本問答到長文本生成,再到推理大模型,其對自然語言的理解和生成效果的迭代進化,自是有目共睹。但在真實的企業應用場景裏,仍然暴露了諸多短板。

一如周鴻禕在ISC大會上所言,目前大模型的推理能力仍然有所欠缺,在大量場景裏更像知識問答模型,二是大量模型不具備獨立調用工具,解決問題的能力。

模型推理能力的問題,在年初Deepseek出現之後,已經得到了部分解決。但在大多數複雜場景時,一個只有推理能力的大模型,通常只相當於人的大腦。

原因很簡單,在企業實務中,無論是互聯網還是實體經濟,一項工作通常需要調用大量工具進行協作完成。如今的推理大模型雖然性能「夠用」,但是尚不具備成為生產力工具的條件。

正因如此,以納米AI為代表的智能體,或許是生成式AI從玩具到工具的一條演進路線,或者用周鴻禕的話說,「大模型進化到智能體是必然的。」其原因在於,以目前的智能體性能,它能夠理解目標、規劃任務、調用工具、具備記憶,實現從需求到結果的完整交付。同時,它也可以使用包括大模型在內的各種工具,進行各種複雜任務的規劃和完成。

在會上,周鴻禕用L1到L4的不同階段,總結了智能體在不同階段的演進和特點。

——L1聊天助手,本質上是聊天工具,擅長提建議或提供情感陪伴,屬於「玩具級」智能體,比如GPTs。

——L2低代碼工作流智能體,已經從「玩具」進化為「工具」,但必須由人類來設定流程,AI來執行任務,人再通過操作工具提高生產效率。

——L3推理型智能體,已能實現AI自主規劃完成任務,像是人類製造了一個在某個領域有專業特長的員工。

他們單兵作戰的能力很強,可以看作一位領域專家。但受限於技術框架,面對跨領域複雜問題時,仍會因缺乏協同規劃能力而陷入瓶頸,無法實現多層級思考下的全局優化。

——L4階段,以納米AI為代表,已經實現了「多智能體蜂羣協作」——多個專家智能體可像搭積木一樣靈活「拉羣組隊」、多層嵌套、分工協作。

在性能表現上,納米AI可以連續執行1000步的複雜任務,消耗Token在 500 萬 - 3000 萬,任務成功率高達95.4%。

要實現多智能體協作,其產品形態必然是平臺化的,必然是少數L4級別智能體協調大量專家級L3智能體完成工作。

藉助納米AI首創的「多智能體蜂羣協作空間」,智能體之間的記憶可以共享,藉此規避了智能體之間的「協同困境」。從任務規劃、協同執行,再到後續自我迭代,都可以在平臺上統一完成。

截至目前,平臺已經匯聚超過5萬個L3智能體,普通用戶只需通過自然語言即可搭建自己的「Manus」。蜂羣框架下,這些L3智能體可以組成步調一致,目標一致的L4團隊,也能完成「一句話生成10分鐘電影級大片」的超長複雜任務,效率從過去2小時直接縮短到20分鐘。

02 更主動,更安全

需要注意的是,隨着互聯網步入AI時代,而在大多數普通人不涉及的網絡安全攻防領域,AI技術同樣也在深入肌理。這裏對攻防雙方,都是顯而易見的挑戰:

一方面,專業的網絡安全專家,在行業內仍然是極度短缺的香餑餑,其專業能力根據公司數據類型的不同,培養週期很長,且應對方向各異,成長難度較大。即便加入大模型進行輔助工作,雖然已經能處理部分基礎任務,卻難以應對複雜流程化的日常運營工作,導致防護能力落地受阻。

但作為攻擊方的黑客,卻能通過AI訓練「智能體黑客」,在真人黑客不在的時候進行自動化攻擊。根據每個黑客組織算力儲備的不同,可以批量複製,一個人類黑客,完全可以管理數十個智能體黑客,其能力呈指數級上漲。

與此同時,作為安全運營專家的「數字大腦」,安全智能體以安全大模型為核心,具備工具調用,流程執行等時機能力,以完整復刻高級專家的分析、決策與實操能力。

部署一個安全智能體,並不意味着「萬事大吉」。譬如在工業控制、政務決策等場景,智能體的幻覺可能導致設備誤操作或政策偏差。例如醫療智能體誤診率即使僅0.1%,在千萬級調用量下仍會造成重大事故。

其中一種規避方式,是動態RAG增強,它將行業知識庫(如國家標準GB/T、工業設備參數)嵌入智能體推理流程,強制在生成答案前檢索權威數據源。譬如政務處理智能體,在回覆政策諮詢時,可以做到自動關聯國務院最新文件庫,減少自由發揮空間;同時,藉助360大模型衛士的「數據去毒」模塊,過濾訓練數據中的矛盾信息,並注入領域規則。

另一種方法則是CoVE驗證鏈。在智能體生成回答之後,通過分步自檢機制,它能自動拆解關鍵主張,並生成驗證問題,進而調用相關的數據庫工具交叉驗證。再通過物理反饋機制,譬如智能體將控制指令轉化為設備的API調用,讀取對應傳感器數據並確認執行結果,形成決策閉環。

不止360一家,任何一家有網絡安全需求的企業,都可以打造自己的安全智能體。相對於一般的AI公司,360的底氣在於,擁有一般AI公司沒有的網絡安全數據、知識,以及網絡安全工具,以及充分發揮上述能力的工作流、大模型,再到如今的智能體打造平臺,每一步都是拼圖,每一塊業務都可以是壁壘。

此外,除了已經定製好的幾十個安全智能體,用戶同樣可以根據需求自己定製對應領域的安全智能體,在如今智能體「定製化」的風潮之下,部署一個熟悉企業情況,能針對性防護的安全智能體,並不是一件難事。

03 奔向「智能體蜂羣」的未來

一如周鴻禕所言,2025年,是智能體的「安全」元年,也是安全智能體的誕生之年。安全智能體,在大模型「腦子」的基礎上,增加了手和腳,意味着能夠進行主動攻防,主動使用工具,如果放在企業實務中,無異於增加了新質的生產力和戰鬥力。

從一開始,360智能體就避開了「算力內卷」,結合自身安全領域的底蘊,專注更場景化,更垂直的生產力。

在構建「智鑑、智盾、智控」五位一體安全體系閉環後,以納米AI搜索為落地產品,成為用戶連接AI的第一入口。

今年以來,360的L4級「專家」智能體,已然覆蓋多個垂直領域,協同任務錯誤率已經下降近90%。這意味着,人類「CEO」和賽博團隊的AI AGENT,用戶像「BOSS直聘」一樣調配5萬+智能體,跨公司組隊形成專屬協作小隊,已經不再是夢。

目前,AI智能體還需要人來定義,而在不遠的將來,L5級別的智能體,借蜂羣框架和社區開放,正在打造「AI時代的操作系統」,重構人機協作範式。

如果智能體真正進入普通人的生活,那麼人類的工作內容,則會變成定義智能體、規劃智能體、管理智能體、監督智能體,智能體變成了人類的員工,做繁瑣的工作,人要學會跟智能體協作。

這樣,每個人就會變成超級個體,大量使用智能體的公司也會變成超級組織,甚至重塑整個經濟的形態和運營邏輯。

這種「業務人員主導AI創新」的模式,無疑進一步加速了AI技術的應用落地,使智能體真正成為「數字員工」

一如周鴻禕預言:「智能體時代,不會指揮AI的人將被淘汰。」這一戰略,正推動360從網絡安全供應商,向AI生態主導者逐步躍遷。

海量資訊、精準解讀,盡在新浪財經APP

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10