智谱推出 AutoGLM 2.0:手机 Agent 的“Manus 时刻”?

市场资讯
Aug 20, 2025

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

(来源:极客公园)

当 AI 不再抢手机,手机 Agent 可能就真正可用了。

作者|连冉

编辑|郑玄

8 月 18 日,智谱正式发布了新的 ToC 产品 AutoGLM 2.0——一个手机通用 Agent。

3 月份发布的 AutoGLM,在操作任务时,“人只能看着,没有其他选择,也不能做其他事情”。这种本地“抢屏”的方案导致了人与机器“二选一”的局面。

比如要用一个 Agent 在手机上点一杯咖啡,用户能做的就是“看着”,等它完成任务。这种模式让 AI 带来的整体效率提升被限制在 1.x 倍的范围内,并不能实现生产力的倍增。

现在,当 AutoGLM 再次进入公众视野,情形已有所不同。在 2.0 版本的 AutoGLM 上,每位用户都将拥有一部云手机与一台云电脑,只需一句指令,Agent 便可在云端自动执行操作、跨应用协作,并完成整套任务。

这意味着 AI 可以 7x24 小时在云端独立“打工”,不再干扰前台操作,人与 AI 的协作范式,也正从“你盯着我干”的同步模式,更新为“你忙你的,我干我的”的异步并行模式。

当 AI 拥有了独立行动的“身体”和“工位”,一个新的、由 Agent 驱动的并行数字世界,似乎正在打开。

01

从“抢屏”到“云端分身”

先回到那个核心痛点。过去,无论是 AutoGLM 的早期版本,还是其他类似的尝试,AI 的每一步操作,都实时反映在用户的物理屏幕上。这种“抢屏”模式带来了几个障碍:

首先是效率问题,AI 工作时,人必须等待,人机之间是“二选一”的互斥关系。这使得总效率提升有限,并没有达到理想中的生产力倍增。

其次是执行中断的可能,锁屏、网络波动、切换应用等任何用户行为都可能中断 Agent 的长任务流。AI 难以在用户非关注时段(如睡眠、娱乐时)持续工作,其价值被大打折扣。

最后还有适配的难题,安卓系统的碎片化,让本地适配成本居高不下。每一个手机品牌、每一个系统版本,都可能影响 Agent 的稳定运行。

AutoGLM 的新方案是用“云端原生”取代“本地镜像”。它为每个用户在云端部署了一个完整的安卓环境(云手机)和一个 Linux 环境(云电脑,后续将支持 Windows)。

当用户下达指令,例如“去美团找附近的奶茶店,点 20 杯,记得用优惠券”,整个任务流——从打开 App、跳过广告、搜索店铺、选择商品、连续点击增加数量,到智能选用优惠券——这些都是在那台云端手机上运行。

而用户的物理手机则依旧自由。用户可以继续聊天、看视频,或者息屏把它放进口袋。AI 的工作与用户的操作在物理上完全解耦,互不干扰。用户只需在任务列表中查看进度,并在支付、发布等关键节点回来“确认”一下即可。

在智谱的闭门交流会上,产品负责人刘潇现场演示了这一核心体验。当他用一台 iPhone 向 AutoGLM 下达运营小红书的任务——“制作并发布一个介绍 AutoGLM 的视频,风格要适配自媒体”,Agent 在云端开始了高效工作。它高并发地搜索了十几个关键词,快速浏览多个网页,随后完成了信息收集和文案撰写,并自动开始制作视频。

而在此期间,刘潇又在云手机上演示了点奶茶和“在抖音刷到小猫视频为止”的娱乐任务。

据官方介绍,AutoGLM 目前已能在云端操作包括抖音、小红书、美团京东在内的超过 40 款高频应用。

这背后是智谱对未来人机协作关系的洞察。智谱 CEO 张鹏在会上分享了一个观点:未来个人竞争力的核心,将是“自身能力 + N 个 AI 智能体”的总和。每个人都将从“打工者”转变为“领导者”,核心能力不再是事必躬亲地执行,而是“会沟通、会安排任务、会指挥”。

AutoGLM 的云端架构,是这一理念的产品化落地。它让 AI 开始成为了一个可以 7x24 小时并行工作的“数字员工”,打破了“AI 必须在你眼皮底下操作”的障碍,让用户可以将那些耗时、重复、甚至超出自己能力范围的任务,“外包”给这个云端分身。

在实际操作中,我试了一下用 AutoGLM 在美团小象超市买一盒椰子水,发起任务前,需要先接管云机-登录任务涉及的 app 账号-退出接管-正常发起任务,以及在支付环节也需要手动操作,其他则确实是可以自动完成,并且在任务启动前还会自己润色需求,自己加上了“用掉红包”,但就是速度堪忧,还不如自己拿手机点来的快。

图片来源:极客公园

随后,我又在电脑上尝试了一个任务“在知乎热榜第一的话题下回答问题”,中间可能是因为出现了一个是否执行操作的确认点没及时确认,所以自动重启了任务,所以当我从别的页面切回去时,看到的就是下面这个情况。

图片来源:极客公园

在我接管电脑确认了操作点之后,可以看到 AutoGLM 进行了一番执行:

图片来源:极客公园

这个任务执行的就有点……

指令是“在知乎热榜第一的话题下回答问题”,结果只是找到知乎热榜第一的话题,然后停留在话题下就算完成任务,并没有“回答”这个操作。

或许是指令不够详细?于是我更新了一下指令,换成“找到知乎热榜第一的话题,并针对问题写 200 字的回答,写完之后直接发布”,新开了一个任务。

这次确实写了回答,但是由于系统连接限制,还是得手动提交回答:

图片来源:极客公园

这是它写的两百字回答:

还有一个问题是,有一些用户在使用 AutoGLM 发布小红书内容时,遇到了会被强制下线、被锁机器码等情况,可能是触发了风控。

02

驱动 Agent 的“3A 原则”与“在线强化学习”

如果说“云手机/云电脑”是 AutoGLM 的新“身体”,那么其背后强大的模型、训练方法论和产品原则,则是这具身体得以高效运转的“大脑”。

在与团队的交流中,极客公园了解到 AutoGLM 的产品哲学可以被提炼为“3A 原则”。

这三大原则,共同构成了 AutoGLM 对一个成熟 Agent 形态的定义,也解释了其当前产品架构。

过去,许多 Agent 的训练依赖于监督微调(SFT),即学习人类专家的操作轨迹。这种方法的弊端是“泛化能力差”——AI 只会模仿它见过的操作,对于未见过的场景或界面改动,往往束手无策。

为了让 Agent 在复杂多变的真实环境中(数千个并发的手机、电脑、浏览器环境)真正具备完成任务的能力,AutoGLM 团队选择了端到端在线强化学习的技术路线

其核心思想是,在经过少量专家数据“冷启动”后,让模型在数千个并行的真实云环境中,像人类一样去“试错”。系统不再告诉模型“下一步该点哪里”,而是只在任务最终完成时给予一个“成功”的奖励信号(Reward)。

模型必须自己探索出最优的决策路径。

这对工程的挑战是巨大的,需要一个能同时调度和监控数千台云电脑、云手机的庞大系统。

在具体的技术实现上,智谱进一步披露了其在强化学习方面的多项突破成果:例如在电脑端,提出了 API-GUI 协同范式以提升数据多样性(ComputerRL);在移动端,则创新了难度自适应强化学习方法,以提升复杂任务的稳定性(MobileRL);同时通过交叉采样等机制,解决了多任务训练中的不稳定问题(AgenRL)。

这些具体的技术创新,共同构成了 AutoGLM 在复杂环境中高成功率的底层保障。

据智谱披露,通过在线强化学习,AutoGLM 的任务成功率相较于冷启动阶段提升了 165%,超过 66% 的成功率增益来源于此。

“我们发现,只要能提供足够好的‘环境(Environment)’和‘奖励(Reward)’,现有算法几乎可以优化任何任务,”刘潇分享道,“瓶颈已经不在算法本身,而在于如何构建可规模化的验证和反馈环境。”

这种“模型即 Agent”的理念,也体现在其底座模型上。GLM-4.5 和 GLM-4.5V 从预训练阶段开始,就为 Agent 任务进行了深度优化,被称为“Agentic Language Model”。

从底层开始的原生设计,使得 AutoGLM 在多个公开基准测试中表现出色。比如,在考察电脑操作能力的 OSWorld Benchmark 中,AutoGLM 获得 48.1 分,超越了 ChatGPT Agent 和 Anthropic 的模型。

技术路线的先进性,带来了商业可行性上的巨大突破——成本下降

传统基于第三方大模型 API 构建的 Agent,单次复杂任务(如 Deep Research)的成本高达 3-5 美元。而 AutoGLM 借助自研模型和一体化架构,将包含模型调用和虚拟机资源的单次任务成本,压缩到了约 0.2 美元(约 1.5 元人民币)。这已经与谷歌单次搜索约 0.02 美元的成本相差不到一个数量级。

这种数量级的成本降低,让智谱有底气在此次发布中不用邀请码,直接向所有 C 端用户开放。

成本降低,成为超级应用的潜力才能上升。

03

“工具”到“生态”

通过为 Agent 提供独立的云端运行环境和基于 GLM-4.5/4.5V 的模型能力,AutoGLM 的定位超越了单一的效率工具,开始构建一个连接多设备和服务的生态。

首先,是产品能力的纵深。除了已经展示的跨应用操作,AutoGLM 的云电脑目标是支持 Office、Photoshop 等更专业的生产力工具。

同时,即将上线的“定时任务”功能,也会是 AI 从“被动响应”迈向“半主动规划”的关键一步。想象一下,“每天早上 9 点,自动总结老板的未读邮件并发送摘要到我微信”,“工作日上午 10 点,自动在多平台比价下单我常喝的咖啡”,相当于半个秘书。

其次,是对硬件生态的赋能。目前的 AI 硬件,如智能眼镜、Pin 类设备,普遍面临算力、续航和交互的“不可能三角”。

在微型设备上堆叠重系统和大电池,体验往往不尽人意。AutoGLM 提出的解法是,让这些端侧硬件“轻量化”,只负责感知和发起指令,而将复杂的应用操作和任务执行全部交由云端的 Agent 完成。

交流会上展示的创意案例体现了这一点:连接了体重秤,当检测到用户体重超过 70kg 警戒线时,会自动触发云端 Agent 下单代餐;连接了气体传感器,当检测到鞋柜中氨气/硫化氢浓度超标时,则会自动下单除臭脚垫。

这展示了一条相对完整的“物理传感器 → 云端 Agent → 现实世界服务”的链路,让 Agent 实现了对物理世界的连接和操作。

通过开放 API 和开发者计划,AutoGLM 正在试图让“万物皆可 Agent”。

为了加速这一进程,智谱上线了“AutoGLM 移动端 API 申请通道”及“开发者生态共建计划,开发者可以申请将 AutoGLM 的云端执行能力封装进自己的硬件或软件产品中。

最后,传统互联网的流量天花板,是用户的“注意力上限”——一天只有 24 小时,用了这个 App,就没时间用那个。

Agent 创造了一种新的流量形态:并行且由需求驱动。当你只有一个单线程的注意力时,可以派出无数个并行的 Agent,帮你研究旅行攻略、对比全网物价、筛选工作资料。

这种由 AI 代理人类去使用服务的模式,可能会极大地扩充整个互联网的有效流量池。而且,这种流量是带着明确“成交意图”的高质量流量,商业价值相对更高。

从另一个角度看,Agent 单任务平均超过 256k tokens 的消耗,也对上游的推理基础设施提出了 32 倍于传统对话场景的需求和价值密度。

在分享会的结尾,刘潇提出了一个关于 AGI(通用人工智能)的阶段性定义,他称之为“AGI 的下限”。

当一个 Agent 能自主稳定地运行一整天(24 小时),作为你的同事或秘书,协同完成工作与生活任务,使你的综合效率提升超过 2 倍时,AGI 的曙光初现。

AutoGLM 的这次进化,或许离这个“下限”还有距离。它仍处于早期形态,对指令的理解还很初级,也存在一些 Bug。但通过构建“云端分身”这一核心架构,它确实开始在为 Agent 的“独立行走”铺平道路。

从同步操作转变为异步委托,或许是人机协作范式的转变的开始,未来的个人竞争力可能取决于“自身能力+N 个 AI 智能体”的模式,用户通过下达指令,让多个 AI 并行完成任务,从而根本性地改变个人处理日常与工作事务的方式。

更理想化一点,也许,一个你只需动动嘴,就有无数个数字分身为你打理数字世界的未来正在展开。

*头图来源:极客公园

本文为极客公园原创文章,转载请联系极客君微信 geekparkGO

极客一问

你如何看待智谱 AutoGLM 2.0?

海量资讯、精准解读,尽在新浪财经APP

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10