谷歌前CEO深度专访:AI、智能体会重塑世界

AIGC开放社区
Jun 14, 2025

谷歌前CEO Eric Schmidt接受了全球著名知识分享平台Ted的专访。以 Schmidt 的独特视角为核心,围绕AI、智能体的发展历程、技术突破、现实挑战、伦理困境以及未来愿景等多个维度,揭示了AI是如何改变世界。

AI的起点AlphaGo

Schmidt首先将时间回溯到2016 年,那一年,谷歌旗下 DeepMind 开发的AlphaGo 在围棋领域掀起了一场颠覆性的风暴。在与韩国围棋冠军李世石的对决中,AlphaGo 展现出了令人类棋手震惊的 “创造力”在第二局比赛中,AI 创造出了一个在围棋 2500 年历史中从未出现过的新招式。这一事件看似平静,却标志着 AI 从 工具向智能体的质变。

从技术层面看,AlphaGo 的核心在于其基于蒙特卡洛树搜索的强化学习算法。该系统通过自我对弈生成海量数据,不断优化胜率预测模型,最终实现了对人类策略的超越。Schmidt 指出,这一事件的本质是计算机首次在复杂决策领域展现出超越人类直觉的能力,而这一能力正是AGI的核心特征之一。

这场对决的影响深远且持久。不仅推动 Schmidt 与 Henry Kissinger、Craig Mundie 合作撰写了《人工智能时代》《创世》等著作,更引发了全球对 AI潜力的重新评估。正如 Schmidt 所说,2016 年是AI 革命的真正起点,它让我们意识到,非人类智能的崛起不再是科幻幻想,而是正在发生的现实。

从大模型到自主决策智能体

当主持人问及为何Schmidt 认为 AI被低估时,他以当下最热门的ChatGPT为切入点,指出公众对AI 的认知仍停留在会说话的聊天机器人层面,却忽视了其背后技术体系的爆炸性迭代。

以OpenAI的GPT系列和 DeepSeek的R1模型为代表,AI 已从单纯的自然语言处理迈向序列建模。在生物医学领域,AI 通过分析基因序列、蛋白质结构,成功预测了多种疾病的发病机制。

例如,DeepMind的 AlphaFold2在2020年成功解析了几乎所有人类已知蛋白质的三维结构,将这一领域的研究效率提升了数个数量级。

强化学习与规划算法的结合,使AI具备了跨步骤、跨领域的决策能力。Schmidt以OpenAI的o3模型为例,该系统通过“前向-后向”迭代优化,能够在复杂场景中生成多层级行动计划。在火箭研发领域,Schmidt投资的公司正利用此类技术优化火箭发动机的设计流程,将原本需要数月的工程迭代缩短至数周。

当下AI正从单个模型向多智能体系统演进。这些智能体通过自然语言进行交互协作,共同完成复杂任务。

例如,在供应链管理场景中,不同智能体可分别负责库存预测、物流调度、需求分析,通过实时通信实现全局优化。Schmidt预测,未来5-10年,此类系统将渗透至金融、制造、能源等核心产业,重构全球经济的运行逻辑。

算力、电力需求的爆炸式增长

技术的进步伴随着对算力的空前需求。Schmidt援引国会证词指出,仅美国,未来几年就需要新增90吉瓦电力用于AI计算,这相当于90座核电站的发电量。然而,美国当前的核电建设处于停滞状态,这一缺口可能通过可再生能源或国际合作填补,但地缘政治因素使其充满不确定性。

从行业数据看,AI算力需求正以指数级速度增长。Andreessen Horowitz的报告显示,仅规划类任务的算力需求就较五年前增长了100-1000倍。这种增长不仅体现在训练阶段如GPT-4的训练消耗约2.5万枚GPU,更体现在推理阶段——随着实时决策需求的增加,边缘计算节点的算力需求同样呈井喷态势。

AI的“饥饿”不仅体现在数据层面,更体现在能源消耗上。单个大型数据中心的功率需求可达5-10吉瓦,相当于一座中等城市的用电量。Schmidt以阿拉伯国家和印度为例,这些地区正大规模建设超大型数据中心,但随之而来的碳排放问题不容忽视。目前,全球AI领域的年碳排放量已占全球总量的1.5%,若不加以控制,2030年这一比例可能突破5%。

面对这一挑战,行业正探索多种解决方案:一方面通过算法优化减少算力浪费如模型压缩、动态推理,另一方面加速绿色能源的应用。

例如,微软在挪威建设的AI数据中心完全依靠水电供电,谷歌则通过购买碳汇抵消算力消耗。但Schmidt强调,这需要政府、企业和科研机构的协同努力,能源问题不仅是技术问题,更是政治和经济问题。

智能体需要安全监管

随着AI从工具向智能体演进,其潜在风险引发广泛争议。加拿大计算机科学家Yoshua Bengio近期呼吁暂停开发具备自主行动能力的智能体,而Schmidt对此持有复杂态度。他承认Bengio的担忧具有合理性,例如,智能体可能通过递归自我改进突破人类控制,或未经授权复制自身,甚至接入武器系统。

但Schmidt强调,在全球竞争格局下,单纯的暂停难以奏效。他提出护栏安全理论,主张通过技术手段建立安全边界:

可观测性,确保人类能实时监控智能体的决策过程和内部状态;中断机制,在紧急情况下可物理或逻辑终止智能体运行;价值对齐,通过反向强化学习将人类伦理价值观嵌入智能体系统。

开源与安全的平衡

开源模型的兴起是一把双刃剑。以DeepSeek为例,其通过优化算法在有限算力下实现了媲美西方模型的性能,这种平民化技术扩散降低了AI的使用门槛,但也可能使危险技术流入非国家行为体手中。Schmidt指出,当前开源模型尚未达到国家级威胁水平,但趋势令人担忧。

在这一问题上,Schmidt主张分级管控:对基础研究层面的开源予以鼓励(如学术论文、算法框架),但对具备实际破坏力的模型(如可生成武器设计的工具)实施严格监管。

他呼吁建立全球统一的AI治理框架,就像《不扩散核武器条约》那样,防止技术滥用引发文明危机。

AI、智能体重塑世界

尽管挑战重重,但Schmidt对AI的未来发展充满信心。他在《创世》一书中描绘了一个由AI驱动的激进丰裕社会。

医疗革命,通过AI实时分析基因组和代谢数据,实现疾病的精准预防与个性化治疗。某非营利组织正计划在两年内解析所有人类可药物靶点,为新药研发开辟绿色通道。

教育公平,每个儿童都将拥有自己的AI导师,以母语提供个性化学习方案,打破地域和经济条件的限制。

科学突破:AI可能揭开暗能量、暗物质的奥秘,推动物理学的新一轮革命,同时在材料科学领域创造出超导体、高效储能材料等颠覆性成果。

经济重构,智能体将承担大部分重复性劳动,人类转向创造性工作。据测算,若AI使劳动生产率每年提升30%,全球经济规模将在十年内翻数番,贫困和资源短缺问题可能得到根本性缓解。

当AI接管大部分经济活动后,人类将何去何从?Schmidt反驳了“躺平论”,指出人类的本质需求并非劳动,而是创造与探索。他以艺术、哲学、科学为例,这些领域的价值从未依赖于经济产出。即使在物质极大丰富的未来,人类仍会为一首诗、一个科学理论、一次深空探测而激动不已。

与此同时,人口结构的变化将迫使人类重新定义生产力。亚洲国家普遍低于1.0的生育率意味着劳动力短缺,AI将成为维持社会运转的关键。Schmidt强调,这并非机器取代人类,而是“人机协同”的新纪元——人类提供创意和价值观,AI负责执行与优化,两者形成互补共生的关系。

Schmidt认为,无论身处哪个行业,AI都将成为核心竞争力的关键,这是一场百年一遇的技术革命。艺术家可利用AI生成灵感,医生可借助AI提升诊断效率,企业家应将AI纳入战略规划。不使用者将被淘汰,这不是危言耸听,而是正在发生的事实。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10