一个“AII in AGENT”的网络安全行业,应该是什么样子?

市场资讯
Aug 09

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

(来源:陆玖商业评论)

还记得2023年8月,那是生成式AI爆发后的第一届ISC大会。

彼时,所有人对于生成式AI的看法,充满诸多不确定性,会后采访周鸿祎时,AI相关的话题,也成为记者们绕不开的热门方向。

那一年,也是“红衣大叔”周鸿祎在公众视野里“重出江湖”的一年。他先是坚定宣布“拥抱AI”,并提出“人工智能不是泡沫,是下一场工业革命。”并在极短时间内推出自研通用大模型“360智脑”,使得360成功抢占了国内AI产业的先机。

两年过去,当行业还在“去幻觉”,卷对话体验时,周鸿祎已然看到AI AGENT的巨大潜力。当潮流逐渐向AGENT汇聚时,他已经拿着蜂群化的纳米智能体,站在AGENT潮流的前端。

某种意义上,这也暗合本届ISC·AI大会的主题:AII in AGENT——从被动防御,到主动免疫,用更智能化的AI AGENT,重构从网络安全,到整个互联网的一切。

01 会协作的智能体“蜂群”

过去两年,生成式AI从短文本问答到长文本生成,再到推理大模型,其对自然语言的理解和生成效果的迭代进化,自是有目共睹。但在真实的企业应用场景里,仍然暴露了诸多短板。

一如周鸿祎在ISC大会上所言,目前大模型的推理能力仍然有所欠缺,在大量场景里更像知识问答模型,二是大量模型不具备独立调用工具,解决问题的能力。

模型推理能力的问题,在年初Deepseek出现之后,已经得到了部分解决。但在大多数复杂场景时,一个只有推理能力的大模型,通常只相当于人的大脑。

原因很简单,在企业实务中,无论是互联网还是实体经济,一项工作通常需要调用大量工具进行协作完成。如今的推理大模型虽然性能“够用”,但是尚不具备成为生产力工具的条件。

正因如此,以纳米AI为代表的智能体,或许是生成式AI从玩具到工具的一条演进路线,或者用周鸿祎的话说,“大模型进化到智能体是必然的。”其原因在于,以目前的智能体性能,它能够理解目标、规划任务、调用工具、具备记忆,实现从需求到结果的完整交付。同时,它也可以使用包括大模型在内的各种工具,进行各种复杂任务的规划和完成。

在会上,周鸿祎用L1到L4的不同阶段,总结了智能体在不同阶段的演进和特点。

——L1聊天助手,本质上是聊天工具,擅长提建议或提供情感陪伴,属于“玩具级”智能体,比如GPTs。

——L2低代码工作流智能体,已经从“玩具”进化为“工具”,但必须由人类来设置流程,AI来执行任务,人再通过操作工具提高生产效率。

——L3推理型智能体,已能实现AI自主规划完成任务,像是人类制造了一个在某个领域有专业特长的员工。

他们单兵作战的能力很强,可以看作一位领域专家。但受限于技术框架,面对跨领域复杂问题时,仍会因缺乏协同规划能力而陷入瓶颈,无法实现多层级思考下的全局优化。

——L4阶段,以纳米AI为代表,已经实现了“多智能体蜂群协作”——多个专家智能体可像搭积木一样灵活“拉群组队”、多层嵌套、分工协作。

在性能表现上,纳米AI可以连续执行1000步的复杂任务,消耗Token在 500 万 - 3000 万,任务成功率高达95.4%。

要实现多智能体协作,其产品形态必然是平台化的,必然是少数L4级别智能体协调大量专家级L3智能体完成工作。

借助纳米AI首创的“多智能体蜂群协作空间”,智能体之间的记忆可以共享,借此规避了智能体之间的“协同困境”。从任务规划、协同执行,再到后续自我迭代,都可以在平台上统一完成。

截至目前,平台已经汇聚超过5万个L3智能体,普通用户只需通过自然语言即可搭建自己的“Manus”。蜂群框架下,这些L3智能体可以组成步调一致,目标一致的L4团队,也能完成“一句话生成10分钟电影级大片”的超长复杂任务,效率从过去2小时直接缩短到20分钟。

02 更主动,更安全

需要注意的是,随着互联网步入AI时代,而在大多数普通人不涉及的网络安全攻防领域,AI技术同样也在深入肌理。这里对攻防双方,都是显而易见的挑战:

一方面,专业的网络安全专家,在行业内仍然是极度短缺的香饽饽,其专业能力根据公司数据类型的不同,培养周期很长,且应对方向各异,成长难度较大。即便加入大模型进行辅助工作,虽然已经能处理部分基础任务,却难以应对复杂流程化的日常运营工作,导致防护能力落地受阻。

但作为攻击方的黑客,却能通过AI训练“智能体黑客”,在真人黑客不在的时候进行自动化攻击。根据每个黑客组织算力储备的不同,可以批量复制,一个人类黑客,完全可以管理数十个智能体黑客,其能力呈指数级上涨。

与此同时,作为安全运营专家的“数字大脑”,安全智能体以安全大模型为核心,具备工具调用,流程执行等时机能力,以完整复刻高级专家的分析、决策与实操能力。

部署一个安全智能体,并不意味着“万事大吉”。譬如在工业控制、政务决策等场景,智能体的幻觉可能导致设备误操作或政策偏差。例如医疗智能体误诊率即使仅0.1%,在千万级调用量下仍会造成重大事故。

其中一种规避方式,是动态RAG增强,它将行业知识库(如国家标准GB/T、工业设备参数)嵌入智能体推理流程,强制在生成答案前检索权威数据源。譬如政务处理智能体,在回复政策咨询时,可以做到自动关联国务院最新文件库,减少自由发挥空间;同时,借助360大模型卫士的“数据去毒”模块,过滤训练数据中的矛盾信息,并注入领域规则。

另一种方法则是CoVE验证链。在智能体生成回答之后,通过分步自检机制,它能自动拆解关键主张,并生成验证问题,进而调用相关的数据库工具交叉验证。再通过物理反馈机制,譬如智能体将控制指令转化为设备的API调用,读取对应传感器数据并确认执行结果,形成决策闭环。

不止360一家,任何一家有网络安全需求的企业,都可以打造自己的安全智能体。相对于一般的AI公司,360的底气在于,拥有一般AI公司没有的网络安全数据、知识,以及网络安全工具,以及充分发挥上述能力的工作流、大模型,再到如今的智能体打造平台,每一步都是拼图,每一块业务都可以是壁垒。

此外,除了已经定制好的几十个安全智能体,用户同样可以根据需求自己定制对应领域的安全智能体,在如今智能体“定制化”的风潮之下,部署一个熟悉企业情况,能针对性防护的安全智能体,并不是一件难事。

03 奔向“智能体蜂群”的未来

一如周鸿祎所言,2025年,是智能体的“安全”元年,也是安全智能体的诞生之年。安全智能体,在大模型“脑子”的基础上,增加了手和脚,意味着能够进行主动攻防,主动使用工具,如果放在企业实务中,无异于增加了新质的生产力和战斗力。

从一开始,360智能体就避开了“算力内卷”,结合自身安全领域的底蕴,专注更场景化,更垂直的生产力。

在构建“智鉴、智盾、智控”五位一体安全体系闭环后,以纳米AI搜索为落地产品,成为用户连接AI的第一入口。

今年以来,360的L4级“专家”智能体,已然覆盖多个垂直领域,协同任务错误率已经下降近90%。这意味着,人类“CEO”和赛博团队的AI AGENT,用户像“BOSS直聘”一样调配5万+智能体,跨公司组队形成专属协作小队,已经不再是梦。

目前,AI智能体还需要人来定义,而在不远的将来,L5级别的智能体,借蜂群框架和社区开放,正在打造“AI时代的操作系统”,重构人机协作范式。

如果智能体真正进入普通人的生活,那么人类的工作内容,则会变成定义智能体、规划智能体、管理智能体、监督智能体,智能体变成了人类的员工,做繁琐的工作,人要学会跟智能体协作。

这样,每个人就会变成超级个体,大量使用智能体的公司也会变成超级组织,甚至重塑整个经济的形态和运营逻辑。

这种“业务人员主导AI创新”的模式,无疑进一步加速了AI技术的应用落地,使智能体真正成为“数字员工”

一如周鸿祎预言:“智能体时代,不会指挥AI的人将被淘汰。”这一战略,正推动360从网络安全供应商,向AI生态主导者逐步跃迁。

海量资讯、精准解读,尽在新浪财经APP

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10