该担心龙虾控制我的人生吗?

虎嗅APP
Yesterday

出品|虎嗅ESG组

作者|陈玉立

头图|AI生成

本文是#ESG进步观察#系列第161篇文章

本次观察关键词:AI

我们可能还是低估了这一波AI Agent可能带来的颠覆变化。

近半个月以来,OpenClaw成为各大社交媒体平台讨论最多的AI软件,人们对其的态度也经历了从热捧到质疑再到理性看待的过程。

恰逢前两天“3·15”,其中被曝光的GEO与“AI投毒论”再一次强化了人们对AI滥用的警惕。

一连串事件过后,更值得探究的关键问题在于——先不论个体对于OpenClaw的使用效率能达到多少(毕竟因人而异),当AI Agent从被动建议变为主动执行后,这一新技术究竟给人类的隐私让渡与伦理带来了怎样的影响,以及当AI使用不当对个体的权益带来侵害时,究竟该如何定责?

在我们对技术革命的“兴奋”逐渐消退后,更现实的治理问题摆在了台面上,如何在创新与安全之间找到平衡,将成为这一轮技术浪潮必须回答的时代命题。

AI Agent作为需求的入口

在分析AI会如何广泛影响商业及伦理之前,我们有必要先弄清楚一个问题,即当前的AI走到哪一步了,以及AI Agent可能会如何改变当前的商业版图。一个可行的思路是,将爆火的OpenClaw放入整个AI产业的发展周期中去理解它的位置。

灵碳智能创始人李博杰认为,当前AI的发展处于“预期膨胀的顶峰期”。无论是OpenClaw还是AI Agent,本质上都是围绕技术讲故事。但是从技术到产品,中间还有相当长的一段距离。

“对比互联网刚刚诞生时期的泡沫期会更贴切,泡沫期中的热门公司甲骨文到现在都没有回到当年泡沫时期的估值,”李博杰说道:“互联网泡沫其实孵化出了很多优秀的技术、商业模式和公司,就像火箭的推进器,每一级都需要强大的推力(泡沫)帮助火箭提升速度,快速推动技术发展。”

而在“预期膨胀的顶峰期”过去后,AI产业会进入“幻灭期”,泡沫会破裂、消耗殆尽,然后会有新的技术泡沫出现,继续推动技术前进,直到这项技术成熟,被大众普遍使用,不再被过度讨论。

图源:Gartner

“OpenClaw及AI Agent虽然是泡沫期的产物,但我们也不能把OpenClaw和AI Agent简单定义为同一代技术,”灵碳科技创始人李博杰分析道:“OpenClaw比AI 更极端,极端在它具备了执行能力。

简单来说,AI Agent是做规划和分析的工具,可以替代人做更复杂的规划、检索、分析工作,偏向脑力层面;但OpenClaw却赋予了AI工具执行能力,能直接帮人完成任务,比如操控电脑、下单买股票、写文章甚至运营公众号,它是AI Agent的进一步延伸。

“现在产业已经开始关注为AI准备数据的相关领域,包括所有面向大模型的数据处理能力,比如数据后处理、预处理、标注、合成数据等,现在很多做具身智能的公司都在讲合成数据的故事,”李博杰指出:“未来AI会像互联网的发展一样进入第四个‘启蒙期’,那时大众不会再过度讨论它,AI要么成功落地,要么就此消亡。”

但无论AI产业怎么发展,李博杰却有一个判断与当下的共识不谋而合,即AI Agent会成为未来一切需求的入口。

就像此前人们使用智能手机一样,在移动互联网时代,智能手机的作用是连接各类服务的入口,比如社交、支付、出行、外卖等等。但在AI Agent成熟的时代,用户不会再逐个打开APP,而是通过向AI Agent表达需求来达到目的。

例如用户会先表达需求“帮我订明天去上海的高铁和酒店”“整理一下这周行业新闻”“给客户做一份报告初稿”,之后AI Agent再去调用各种应用完成任务。这种模式一旦成立,当前基于移动互联网的商业模式从“人找服务”,变成“服务被AI Agent调用”。

而这一商业范式便将我们引向了开头所讨论的问题——个体的隐私权是否会被让渡,AI的滥用又将如何被定责。因为智能手机时代的数据结构被各个平台分开收集,但AI时代数据很可能会被集中到一个AI Agent上。

换句话说,Agent必须了解你,才能代表你行动,于是它很可能成为最了解你的数字系统。

谁来控制你的人生?

李博杰认为,AI Agent时代个体的隐私权不存在是否“让步”的问题,甚至有可能出现不再由你自己掌控的情况。

“举个例子,假如未来出现了一个能力很强的AI医疗服务,它为了治疗你的疾病需要获取你所有的生活作息数据、身体实时的各项指标,甚至包括你家人的遗传信息、你的基因信息,这种情况下的隐私让渡已经达到了极限,但它能帮你治病,为你研发针对病症的特效药,你是否会选择接受?”李博杰说道:“延伸到其他领域也是一样,AI Agent几乎能够帮你作出任何最有利的决定,但代价是把你各类相关的偏好/习惯都告诉它。”

对个体权利的挑战不仅存在于个人生活领域,在工业生产中同样凸显——当 AI 替代工厂所有管理人员且掌握工厂控制权时,工厂的实际运营主体、AI 行为的责任归属应该如何界定?

虎嗅ESG组认为,用户对于隐私让渡的接受度,本质上取决于两个核心因素:一是能从隐私让渡中获得的实际好处,二是掌控 AI 技术的企业是否具备足够的可信度。回顾此前李彦宏关于“部分人愿意用隐私换取效率”的争议性言论,客观说明确实存在部分用户一旦感知到AI能为生活带来颠覆性改变,会更快接受这种隐私让渡的模式。

我们也可以从历史发展与全球竞争角度来审视这一命题。当下AI 时代的隐私观与伦理观重塑正面临着两种截然不同的可能性。一种是积极拥抱技术的开放模式,如同工业革命时期若能主动接受铁路等新技术,便能抓住发展机遇;反之,若像当年慈禧拒绝修铁路那般死守传统规则,将AI“封在罐子里”,最终只会被掌握最新技术的主体降维打击。

李博杰认为,理想的隐私与数据治理机制,其核心是实现“数据获取与收益对等”,即每一次个人隐私与数据的让渡,都必须让贡献者获得高于让渡成本的实际回报,且数据的获取必须具备明确的目的性与相关性。

“比如为医疗服务获取个人医疗数据合理,但借机采集与医疗无关的短视频浏览、聊天记录等信息,则属于明确的数据泄露,”李博杰说道:“这种精细化的治理规则,需要由兼具行业专业知识与职业良知的从业者制定,若由大模型企业、政府或专家学者单一主体一刀切管控,最终只会走向两个极端——要么过度保守将AI‘封在罐子里’,要么放任技术无序发展,最终因各种问题爆发而被迫叫停。”

在隐私让渡之外,责任界定与承担是更复杂、更现实的核心问题。李博杰构想了两种可能的AI Agent发展范式,一种是“一家企业足够强大进而垄断入口”模式,另一种是 “统一入口+多元应用生态”模式。“从治理角度看,后者的模式更健康,一方面国家可对入口进行适度管控,另一方面在入口之后不同场景下的应用由不同公司运营,也能分别承担起相应的责任。”

当然,这一切都像是在为未来的想象下定义,毕竟AI产业的发展尚未真正走到那一步。但归根结底,AI 时代的隐私让渡与伦理治理,并非简单的 “要不要保护隐私”“要不要发展技术” 的二元选择,而是要在技术发展与隐私保护之间找到平衡。

这种平衡的实现,需要摒弃保守封闭的思维,主动拥抱技术创新,同时建立精细化、贴合实际的治理规则与责任体系,既发挥AI提升效率、创造价值的核心作用,也让个人隐私与数据得到合理的保护与尊重。

AI Agent在重塑企业的“良心”

从更专业的治理语境出发,AI 时代的治理问题与 ESG(环境、社会、治理)三大核心维度高度契合,后者恰好能够为AI的健康发展提供底层框架与价值指引。

香港大学当代中国与世界研究中心资深研究员施涵认为,AI 治理并不是 ESG 之外凭空增加的“第四支柱”,而更适合作为一个横跨环境、社会与治理三大维度的复合议题来理解。

对于那些已经在经营管理、客户服务、风控决策、供应链协调等环节深度部署 AI Agent 的企业而言,这一议题甚至可能演变为具有财务实质性的风险与机遇议题,因此有必要被正式纳入 ESG 视野。

变化的关键,在于 AI 系统的角色正在发生转变。相较于以识别、分析、预测和内容生成为主的传统 AI 应用,AI Agent 的突出特征在于其具备更强的任务分解、工具调用、外部系统交互和自主执行能力。正因为如此,企业治理的重点也不能再仅停留在数据安全、模型准确性和隐私保护层面,而必须进一步前移到行为约束、权限边界、问责机制、人类监督、事件响应和持续监测等方面。

从 ESG 的视角看,施涵认为在AI时代,企业责任边界的扩展至少体现在以下四个方面:

第一,企业责任正从关注“输出结果”延伸到关注“行为过程”。过去,企业主要为 AI 系统生成的内容负责;而在 AI Agent 场景下,企业还必须对其如何行动、在何种权限下行动、影响了哪些业务流程、是否触发了高风险决策,以及在不确定情境下是否能够被及时叫停和纠偏负责。

第二,AI 治理已不再只是一个技术控制问题,也是一项涉及社会影响与基本权利保障的责任议题。它至少关涉员工是否会因自动化受到不公平影响,个人数据和隐私是否得到尊重,算法是否会放大歧视,消费者是否拥有知情、申诉与补救渠道,以及相关系统是否真正尊重人的尊严与自主性。

第三,AI Agents 为企业打开了新的风险传导渠道。因为它们能够“采取行动”而不仅仅是“提出建议”,所以可能在更大范围内放大网络安全风险、提示词注入风险、权限失控、虚假信息传播、偏见扩散、安全事故以及运营失误。

这意味着,AI Agent 的风险已经不能被视作单纯的 IT 问题,而应被纳入企业整体风险管理体系,与内控、法务、合规、审计和业务治理协同处理。

第四,AI 既可能成为 ESG 风险源,也可能成为 ESG 价值创造工具。一方面,它可能带来更高的能耗、硬件资源消耗、劳动力替代压力、歧视性决策以及治理失灵等问题;另一方面,它也可能被用于气候建模、电网优化、资源效率提升、安全监测和供应链追溯等场景。

真正的关键并不在于企业“是否使用 AI”,而在于企业“在什么治理条件下使用 AI”,以及这种使用是否经过目标设定、影响评估和效果验证,最终能否形成净的可持续价值。

施涵进一步指出,将AI治理纳入ESG一个更务实的做法,是把它理解为一个分层嵌入、交叉治理的问题。

在治理(G)层面,企业首先需要明确 AI 的治理架构与责任归属,包括董事会或相关委员会对重大 AI 风险与机遇的监督职责,管理层对部署、审查、升级、暂停和退出机制的管理职责,以及业务部门、技术团队、风控合规部门之间的分工边界。

在社会(S)层面,重点应放在 AI 对人的实际影响上。这不仅包括偏见与歧视测试、员工影响评估、负责任自动化、数据权益保护、消费者保护和无障碍设计,也包括对受影响主体进行充分沟通,以及建立申诉、纠错和补救机制。需要注意的是,许多 AI 议题并不能被简单划入某一个维度之中。

例如,算法歧视既是社会问题,也依赖治理结构中的审查、问责与纠偏机制,因此企业不能用“分栏管理”的方式替代真正的交叉治理。

在环境(E)层面,企业则应同时衡量 AI 的环境足迹与环境效益。对于开发或大规模使用 AI 的企业来说,这意味着不仅要关注模型训练和推理过程中的能耗、算力依赖、硬件生命周期和潜在水资源消耗,也要评估 AI 是否确实帮助企业在其他业务环节减少排放、优化资源使用、提高环境绩效。

AI 不能因为带有“数字化”标签就自动被视为绿色,其环境负荷与减排贡献都应被纳入综合评价。

“AI Agents 正在推动 ESG 治理变得更加关注行为本身、系统逻辑及其长期影响。企业责任的边界,正在从‘管理企业直接做了什么’,扩展到‘管理那些在授权范围内代表企业行动的半自主数字系统做了什么’,”施涵分析道。

总而言之,面对 AI Agent 所带来的技术变革,既不能放任其成为冲击规则与责任边界的失控力量,也不能因过度担忧风险而将其拒之门外。无论是盲目乐观,还是过度保守,都可能使企业错失技术进步所带来的重要机遇。如何在创新激励、风险防控与责任治理之间取得平衡,很可能将成为 AI 时代最重要的议题之一。

本内容未经允许不得转载。授权事宜请联系 hezuo@huxiu.com。

End

想涨知识 关注虎嗅视频号!

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10