诺奖得主、DeepMind CEO最新分享:AI正逼近人类的灵魂边界

Z Finance
Jun 01, 2025

图片来源:Youtube

“AI正逼近人类的灵魂边界。”

这是DeepMind CEO Demis Hassabis在Google I/O大会期间,面对通用人工智能(AGI)议题时发出的直白判断。在这场持续近两小时的对谈中,他与《纽约时报》记者Kevin Roose、科技播客主持人Casey Newton围绕“通用智能的冲刺”“AI创造力与幻觉”“进化式模型AlphaEvolve”“全球科技博弈与安全伦理”等多个前沿议题,展开了深入讨论。Hassabis坦言,如今的AI技术堆栈还远未稳定,“技术本身在奔跑,我们只能边跑边造车”,但同时他也首次明确表示:AGI或将在2030年左右诞生,我们正处在关键的五年窗口期。

在这场讨论中,Hassabis提出了数个令人深思的判断:

AGI冲刺阶段已开启:“我们已经越过了中段,现在是冲刺的前沿。”

AlphaEvolve代表AI自我进化的雏形:“它让AI系统开始提出假设并评估自身,虽然现在还远未完全自动化,但已具备重要价值。”

“幻觉”并非全然负面,创造力有时需要“非真实”触发点:AI必须敢于想象,才可能发现搜索空间中未被触及的创新路径。

技术栈仍在飞速演进,构建AI产品必须押注未来能力:产品经理的核心能力变成预见技术一年后的跃迁路径。

AGI将是全人类的问题:“AI的安全、伦理与监管,不可能局限在某个国家、某个公司内部,它必须全球协作。”

未来职业构成将重塑,但不是终结,而是新秩序的开始:“大团队将被小型高效组织取代,创造力与远见将成为稀缺能力。”

AI还无法触碰人类“灵魂”的部分:不管是小说、画作,还是人与人的深度连接,目前AI仍难以复制那些“经历过挣扎”的创作能量。

正如Hassabis所说:“如果AI是这个时代的引擎,那么它不是让我们变得更冷酷,而是让我们更有时间回归本质——包括想象力、情感与哲思。”或许,这正是AI时代最值得我们守护的东西。

谷歌 DeepMind 首席执行官Demis Hassabis多年来一直梦想着 AGI。2014 年,谷歌收购了他共同创立的人工智能初创公司 DeepMind,Hassabis加入谷歌。去年,Hassabis和他的谷歌DeepMind同事 John M. Jumper因其在AlphaFold上的贡献而获得了诺贝尔化学奖。

以下是访谈的全文翻译。

图片来源:Youtube

Kevin Roose: 你们刚刚举办了 Google I/O大会,那真是Gemini的盛会。Gemini的名字在主题演讲中被提到了大约 95 次。在宣布的所有产品中,您认为对普通用户来说最重要的是什么?

Demis Hassabis:我们确实宣布了很多东西。对于普通用户来说,我认为是新的强大机型,我希望像 Astra 这样的技术能够应用于 Gemini Live。我觉得这真的很神奇,当人们第一次使用它时,他们会意识到人工智能如今已经能够做到比他们想象的更多的事情。我想Veo 3可能是本次展会上最重要的发布,而且现在似乎正在迅速走红,我认为这也非常令人兴奋。

Kevin Roose: 与往年相比,今年的I/O大会给我留下了深刻印象的一点是,谷歌似乎正在被人们说成是“AGI药丸”一样的东西所吸引。我记得几年前采访谷歌的研究人员时,谈论AGI还是有点禁忌。他们会说:“哦,Demis和他在伦敦的DeepMind团队,那是他们疯狂的事情,他们对此感到兴奋。但我们在这里做的是真正的研究。” 但现在,谷歌的高管们开始公开谈论它了。这种转变是如何解释的呢?

Demis Hassabis:我认为 AI 这个等式正变得越来越重要,就像我有时把谷歌DeepMind描述为谷歌的引擎室一样,如果你退一步来看,我想你可能在昨天的主题演讲中就看到了这一点。然后我想,一切都非常清晰。你可以说“AGI-pilled”这个词或许很贴切,我们已经非常接近人类水平的通用智能,甚至可能比几年前人们想象的还要接近。它将产生广泛而跨领域的影响。我认为这也是你在主题演讲中看到的另一件事。它几乎无处不在,因为它是一个支撑一切的水平层,我认为每个人都开始理解这一点,也许DeepMind的一些理念正在渗透到谷歌的整体架构中,这很好。

Casey Newton:您在周二的主题演讲中提到,Project Astra 正在赋能一些人们甚至可能尚未意识到 AI 能够做到的事情。我认为这反映出目前 AI 行业面临的一个真正挑战:这些模型拥有非常惊人的能力,但要么产品卖得不好,要么用户还没有真正理解它们。那么您是如何看待这个挑战的?您在多大程度上专注于产品问题而不是研究问题?

Demis Hassabis:我认为这个领域面临的挑战之一显然是底层技术发展速度惊人,甚至与其他重大革命性技术(例如互联网和移动技术)截然不同。技术栈在某个阶段会趋于稳定,这样人们就可以专注于产品或开发该技术栈。而我们现在面临的情况,我认为从研究人员的角度来看,这非常不寻常,但也非常令人兴奋,因为技术栈本身正在飞速发展,正如你们所知。所以我认为这实际上在产品方面带来了独特的挑战。这不仅对我们谷歌和DeepMind,对初创公司,对任何公司,无论大小,都构成挑战:正如我们所见,如果一年后技术可能会提升100%,那么现在你该押注什么呢?所以,你需要具备相当深厚技术功底的产品人员——产品设计师和经理——来预测一年后技术的发展方向。所以有些事情它现在做不到,而你想设计一款一年后就能面世的产品,那么你必须对这项技术及其未来发展方向有相当深入的理解,才能确定哪些功能是可以依赖的。所以这是一个有趣的过程,我想这就是你所看到的:这么多不同的东西被尝试,如果某个方法有效,我们就必须迅速加倍投入

Casey Newton:是的,在您的主题演讲中,您提到 Gemini 既能助力生产力/助理类产品,也能助力基础科学和研究挑战。我想知道,在您看来,这是否是一个伟大的模型能够解决的同一个问题?还是说,这两个问题截然不同,只是需要不同的方法?

Demis Hassabis:当你审视它时,你会发现它涵盖了令人难以置信的广泛领域,这的确如此。除了我对所有领域都感兴趣之外,它们之间还有什么关联呢?但这正是我们构建通用智能的初衷,真正做到了通用,并且以我们正在做的方式;它应该适用于几乎所有领域:从生产力(这非常令人兴奋,它能帮助数十亿人的日常生活)到解决科学领域的一些重大难题。我想说,其中 90% 是底层核心通用模型——就我们的 Gemini 而言,尤其是 2.5 版本。在大多数这些领域,你仍然需要额外的应用研究,或者一些来自该领域的特殊框架。也许是特殊数据,或者其他什么,来解决这个问题。也许我们会与科学领域的专家合作。但在此基础上,当你攻克某个领域时,你也可以将这些经验运用到通用模型中。然后通用模型会变得越来越好。所以这是一个非常有趣的飞轮。对于像我这样对很多事情都感兴趣的人来说,这真的很有趣。你可以利用这项技术,进入几乎任何你感兴趣的领域。

Kevin Roose: 目前很多人工智能公司都在纠结一个问题:该投入多少资源用于推进核心人工智能的基础模型——在基础层面上改进这些模型——还是要投入多少时间、精力和金钱,尝试将其中的某些部分剥离出来,进行商业化,最终转化为产品?我认为这既是资源挑战,也是人员挑战。比如说,你以工程师的身份加入 DeepMind,想要构建 AGI,然后谷歌的某个人来找你说,我们实际上想让你帮忙开发一个可以让人们试穿衣服的购物功能。和那些因为某种原因加入,但可能被要求做其他事情的人进行这样的对话,会不会很有挑战性?

Demis Hassabis:这在某种程度上是一种内部的自我选择。产品团队里有足够多的工程师来处理产品开发和产品工程。至于研究人员——如果他们想继续从事核心研究,那也没问题。我们需要他们这样做。但实际上,你会发现很多研究人员都对现实世界的影响充满动力,显然是在医学领域,以及像Isomorphic这样的领域。而且,让数十亿人使用他们的研究成果,这实际上非常有激励作用。所以,有很多人喜欢两者兼顾。所以我们没有必要强迫人们专注于某些特定领域。

Kevin Roose: 你昨天(星期二)和谷歌联合创始人谢尔盖·布林(Sergey Brin)一起参加了一个小组讨论,布林一直在办公室里研究这些事情。有趣的是,他对AGI 的时间表比你短。他认为通用人工智能会在2030年之前实现,而你说会在2030年之后。他实际上指责你故意拖延时间;基本上就是故意把预期时间往后推,这样你就可以少承诺多兑现。但我对此很好奇,因为你经常会听到不同人工智能公司的人争论时间表,但想必你和布林掌握着相同的信息和路线图,你们也都了解什么是可能的,什么是不可能的。那么,他看到了什么而你没有看到,或者反之亦然,导致你们对通用人工智能何时到来得出不同的结论呢?

Demis Hassabis:首先,我们的时间表并没有太大差别,如果他是在 2030 年之前,而我在 2030 年之后。而且,自从 2010 年 DeepMind 成立以来,我的时间表一直非常一致。所以我们认为这是一个大约 20 年的任务,令人惊讶的是,我们正朝着正确的方向前进。所以我认为它应该在这个时间点左右。我感觉介于两者之间——我实际上显然有一个概率分布,其中最大规模的是在 5 到 10 年后。我认为部分原因是,准确预测 5 到 10 年后的事情非常困难。所以这周围存在不确定性。此外,还需要多少突破也存在不确定性,对于 AGI 的定义,我的标准一直都很高,那就是:它应该能够完成人脑所能做的所有事情,即使是理论上的。所以,这比普通人类所能达到的水平要高得多,这显然在经济上非常重要。这将是一个重要的里程碑,但在我看来,还不足以称之为通用人工智能。

我们在台上稍微讨论了当今系统所缺少的东西:真正突破常规的发明和思维,发明猜想而不是仅仅解决数学猜想。解决一个猜想已经很不错了,但真正发明像黎曼猜想或类似的重要猜想(数学家们一致认为它非常重要)则要困难得多。此外,一致性也是通用性的必要条件。即使是顶尖专家也很难在系统中发现缺陷,尤其是一些微不足道的缺陷,而这些缺陷在今天我们却很容易找到,普通人也能做到。所以,在我们达到我所认为的 AGI 之前,存在着能力差距和一致性差距。

Casey Newton:您认为缩小这一差距是通过每个后续模型逐个改进 2% 到 5% 来实现的吗?这种改进需要经过很长一段时间才能实现。还是说,您认为更有可能的是,我们能够取得某种技术突破,然后突然间就实现了某种智能爆炸?

Demis Hassabis:我认为两者皆可,而且我确信两者皆有用,这就是为什么我们极力推进规模化和所谓的增量式发展。实际上,即使在这方面也有很多创新,为了在预训练、后训练、推理时间计算以及所有这些堆栈方面不断推进,我们也有很多激动人心的研究,我们通过扩散模型(Deep Think 模型)展示了其中的一些成果。所以,我们正在对传统堆栈(我们应该这样称呼它)的各个部分进行创新。在此基础上,我们还在做更多“绿地”项目,更多“蓝天”项目,比如AlphaEvolve。

Kevin Roose: 绿色田野和蓝天之间有什么区别吗?

Demis Hassabis: [笑] 我不确定。也许它们很相似。

Kevin Roose: 好的。

Demis Hassabis:我们姑且称之为“某个新领域”。然后这些研究可能会回到主干,对吧?我一直坚信基础研究。我认为,我们的研究平台一直比任何实验室都更广泛、更深入。这让我们能够取得过去的重大突破:当然是Transformers,还有AlphaGo、AlphaZero、Distillation等等。如果这些技术中的任何一项再次被需要,或者再次取得同等水平的重大突破,我都会支持我们去做。我们正在探索许多非常令人兴奋的途径,这些途径既可以带来这种阶跃式的改变,也可以带来渐进式的改变。当然,它们之间也会相互作用,因为你的基础模型越好,你就可以在其上尝试更多的东西。再次强调,就像AlphaEvolve一样,你在大语言模型(LLM)的基础上添加了进化编程。

Kevin Roose: 我们最近采访了Karen Hao,她是一位刚刚写了一本关于人工智能的书的记者。她主要反对规模化——你不需要那些大型的通用模型,它们极其耗能、计算密集,需要数十亿美元的资金、新的数据中心以及各种资源。与其这样做,不如构建更小的模型。你可以构建更精细的模型。你可以使用像AlphaFold这样的模型,它专门用于预测蛋白质的三维结构。你不需要一个庞大的模型来实现这一点。你对此有何看法?

Demis Hassabis:嗯,我认为你需要那些大型模型。我们喜欢大型和小型模型,所以你经常需要大型模型来训练小型模型。所以我们对我们的“Flash”模型感到非常自豪——我们称之为“Workhorse”模型,它们非常高效,也是最受欢迎的模型之一。我们内部使用了大量这类模型。但是,如果不从大型教师模型中提炼知识,你就无法构建这类模型。即使是像 AlphaFold 这样的东西——显然,我非常提倡更多这类模型,它们可以解决当今科学和医学领域中真正重要的问题;我们不必等待通用人工智能(AGI)的到来。这需要采用通用技术,但随后可能会对其进行专门化,例如围绕蛋白质结构预测。我认为在这方面有巨大的潜力。我们——主要是在科学人工智能领域——几乎每个月都会在这方面做出一些很酷的东西。我认为我们应该在这方面进行更多的探索。或许很多初创企业都能将现有的某种通用模型与特定领域相结合。但如果你对通用人工智能 (AGI) 感兴趣,就必须兼顾两者。在我看来,这不是“非此即彼”的问题,而是“两者皆可”,对吧?比如,让我们扩大规模,让我们研究专门的技术,让我们关注那些可能催生下一代变形金刚的全新蓝图研究。我们对所有这些领域都押注不已。

Casey Newton:您提到了 AlphaEvolve,我和 Kevin 都对它非常着迷。请跟我们讲讲 AlphaEvolve 是什么。

Demis Hassabis:嗯,从高层次上讲,这基本上是利用我们最新的 Gemini 模型(实际上是两个不同的模型)来生成关于程序和其他数学函数的想法和假设,然后它们会进入一个进化编程过程,以决定哪些是最有前景的。之后,这些想法和假设会被移植到下一步。

Casey Newton:请简单介绍一下什么是进化编程。听起来很令人兴奋。

Demis Hassabis:是的,所以这基本上是系统探索新空间的一种方式,对吧?比如,在遗传学中,我们应该改变哪些东西才能产生一个新的生物体?所以你可以在编程或数学中以同样的方式思考:你以某种方式改变程序,然后将其与你想要得到的答案进行比较;然后,根据评估函数,将最合适的答案放回下一个集合,从而产生新的想法。我们用最高效的模型来生成各种可能性,然后我们用专业的模型来评判这些可能性,并决定哪一个最有希望被选中进行下一轮进化。

Kevin Roose: 所以它有点像一个自主的人工智能研究组织,其中一些人工智能提出假设,其他人工智能对它们进行测试和监督,而我理解的目标是让人工智能能够随着时间的推移不断自我改进或对现有问题提出改进建议。

Demis Hassabis:是的。这只是某种自动化过程的开端,目前还没有完全自动化。而且,它的应用范围仍然相对较窄。我们已经将它应用于许多领域,例如芯片设计、在数据中心更高效地调度AI任务,甚至证明矩阵乘法——矩阵乘法是训练算法最基本的单元之一。所以它实际上已经非常有用了。但它仍然局限于可证明正确的领域,显然数学和编程就是这样。所以我们需要将其完全推广。

Casey Newton:但有趣的是,我认为对很多人来说,他们对LLM的普遍看法是,嗯,你实际上能给我的只是训练数据的统计中位数。但你的意思是,我们现在有办法超越这一点,从而有可能产生真正有助于推动当前研究水平的新想法。

Demis Hassabis:没错。AlphaEvolve 是另一种方法,它使用了进化方法,但早在 AlphaGo 时代,我们就有证据证明这一点。AlphaGo 提出了新的围棋策略,最著名的是李世石世界冠军赛第二局的第 37 步。好吧,它仅限于一局棋,但这是一种前所未有的全新策略,即使我们已经下了几百年的围棋。所以,就在那时,我启动了 AlphaFold 项目和科学项目,因为我在等待看到创造力或原创性火花的证据,至少在我们已知的领域内。但我们还有很长的路要走。我们知道,这类模型——结合蒙特卡洛树搜索、强化学习或规划技术——可以带你探索新的领域。而进化方法是超越现有模型认知的另一种方式。

Casey Newton:我一直在寻找一个好的蒙特卡洛树,所以如果你能帮我找到一个,那真的会有很大帮助。

Demis Hassabis::这些事情之一可能会有所帮助。

Casey Newton:好的,太好了。

Kevin Roose: 所以我读了 AlphaEvolve 的论文。(或者更准确地说,我把它输入到 NotebookLM 中,让它制作一个播客,然后我可以听,这样就能从更基础的层面向我解释清楚。)其中一件让我印象深刻的事情是关于你如何让 AlphaEvolve 更具创造力的细节。你做到这一点的方法之一就是强迫模型产生幻觉。现在很多人都痴迷于消除幻觉。但在我看来,解读那篇论文的一种方式是,它实际上存在一个场景,你希望模型产生幻觉或发挥创造力——无论你想怎么称呼它。

Demis Hassabis:嗯,我想是的。当你渴望真实的东西时,产生幻觉显然是不可取的。但在创造性的情况下——比如MBA课程中的横向思维之类的——你会产生一些疯狂的想法,其中大多数都毫无意义。但偶尔出现的一两个想法,可能会让你进入搜索空间中某个非常有价值的领域,事后你会发现,这些领域实际上非常有价值。所以,在那时,你可以用“幻觉”来代替“想象”,对吧?它们显然是同一枚硬币的两面。

Kevin Roose: 我确实和一位人工智能安全专家聊过,他对 AlphaEvolve 有点担心,不是因为实际的技术和实验(他表示,这些技术很吸引人),而是因为它的推广方式。谷歌 DeepMind 创建了 AlphaEvolve,然后用它来优化谷歌内部的一些系统,并将其隐藏了几个月,才向公众发布。这位专家说:“好吧,如果我们真的达到了这样的程度,这些人工智能系统开始递归地自我改进,并且它们可以构建更好的人工智能,那么这是否意味着,当谷歌真的构建出通用人工智能(AGI)甚至超级智能时,它会暂时保密,而不是负责任地告知公众?”

Demis Hassabis:嗯,我认为实际上两者兼而有之。首先,AlphaEvolve 是一个处于起步阶段的自我改进项目,它仍然需要人类参与,而且它只是在现有任务的基础上削减了——尽管这很重要——几个百分点。这很有价值,但它并没有带来任何实质性的改变。此外,在向公众发布之前,需要进行内部仔细评估,同时也需要从学术界等获得额外的批评意见,这也很有帮助。此外,我们有很多值得信赖的测试人员,他们可以提前接触到这些项目,然后给我们反馈,并进行压力测试,有时安全机构也会参与其中。

Kevin Roose: 但我的理解是,你们不仅仅是在谷歌内部进行红队测试。你们实际上是用它来提高数据中心的效率,用它来提高训练AI模型的内核的效率。所以我猜这个人的意思是:我们希望在它们变成像 AGI 那样的东西之前,就养成良好的习惯。他们只是有点担心,这件事可能会被隐藏得比需要的更久。我很想听听你对此的回应。

Demis Hassabis:我认为那个系统在AGI 方面并不存在任何风险。我认为,如今的系统——尽管非常令人印象深刻——从这位朋友可能提到的任何通用人工智能风险角度来看,都不够强大。我认为两者兼顾。你需要对这些东西进行极其严格的内部测试。然后,我们还需要从外部获得协作输入。所以我认为两者兼而有之。实际上,我并不清楚 AlphaEvolve 最初几个月的开发流程细节;它之前只是函数搜索,后来变得更加通用。所以,在过去的一年里,它已经发展成为一个通用工具。在我们真正将它应用于主分支之前,它还有很长的路要走,到那时,主分支就会变得更加成熟,就像 Gemini 一样。目前,它与 Gemini 是分开的。

Casey Newton:我们来更广泛地谈谈人工智能安全。据我观察,似乎历史越久远,人工智能系统越不强大,人们就越会谈论安全风险。而现在,随着模型的改进,我们听到的关于安全风险的讨论却越来越少,包括在周二的主题演讲中。所以,我很好奇,如果您觉得自己已经足够重视现有系统可能造成的风险,并且仍然像三四年前那样致力于人工智能安全,那时很多类似的后果似乎不太可能发生,那么您如何看待当前的人工智能安全形势呢?

Demis Hassabis:是的,我们一如既往地致力于此。从 DeepMind 创立之初,我们就为成功做好了规划。成功意味着像这样,是我们想象中的样子。我的意思是,它真的发生了,这仍然有点难以置信。但如果这些技术真的按照我们设想的方式发展,它就处于我们设想的奥弗顿之窗中。风险以及如何规避和降低这些风险也是其中的一部分。因此,我们对我们的系统进行了大量的工作。我认为,我们在发布前和发布后都有非常强大的红队测试流程。我们学到了很多东西,我认为这就是这些系统(尽管是早期系统)与现实世界接触的区别所在。我现在有点相信,这总体上是件好事。

我想,五年前、十年前,我或许会觉得待在研究实验室里,跟学术界合作之类的更好。但实际上,很多东西除非数百万人尝试,否则你无法看到或理解。所以,这是一种奇怪的权衡——只有当数百万聪明人尝试你的技术,你才能找到各种极端情况。所以,无论你的测试团队有多大,也只有100人或1000人左右。所以,这与数千万人使用你的系统是无法相比的。

但另一方面,你希望尽可能提前了解情况,以便在风险发生之前降低风险。所以这很有趣,也是很好的学习机会。我认为过去两三年行业发生的一切都很棒,因为我们一直在学习,看看这些系统何时不那么强大或危险,正如你之前所说。我认为两三年后,当这些代理系统开始真正发挥作用时,情况会变得非常严峻。我们现在看到的只是代理时代的开端,我们姑且称之为。

但是,你可以想象一下,希望你从主题演讲中理解了这些要素是什么,它们将如何组合在一起,然后我认为我们真的需要在分析、理解和可控性方面的研究方面取得重大进展。但另一个关键问题是,它必须是国际化的。这相当困难。我一直非常坚持这一点,因为它是一项将影响世界上每个人的技术。它由不同的国家和不同的公司在构建。所以我认为,你必须制定一些国际规范,关于我们希望将这些系统用于什么用途,以及我们希望用什么样的基准来测试安全性和可靠性。

但现在还有很多工作要做。比如,我们还没有这些基准。我们、业界和学术界应该就这些基准达成共识。

Casey Newton:您希望出口管制在您刚才所说的方面发挥什么作用?

Demis Hassabis:嗯,出口管制是一个非常复杂的问题。显然,当今的地缘政治也极其复杂。我看到了双方对此的争论。这些技术正在扩散,而且是不受控制的扩散。你想让不同的地方都拥有前沿建模训练能力吗?我不确定这是否是个好主意。但另一方面,你又希望西方技术能够被世界各地采用。所以这是一个复杂的权衡。如果有一个简单的答案,我会大声疾呼,但我认为它就像大多数现实世界的问题一样,非常微妙。

Kevin Roose: 如果我们还没有陷入与其他国家在人工智能领域的两极冲突,您认为我们正走向这种冲突吗?就在最近,我们看到特朗普政府大力推动中东地区——海湾国家,例如沙特阿拉伯和阿联酋——成为人工智能强国,并要求它们使用美国芯片来训练其他国家无法获得的模型。您认为这会成为新一轮全球冲突的根源吗?

Demis Hassabis:嗯,我希望不会。但我认为短期内,人工智能正被卷入正在发生的更大的地缘政治变化之中。所以我认为这只是其中的一部分,而且它恰好是目前出现的最热门的新事物之一。但另一方面,我希望随着这些技术变得越来越强大,世界会意识到我们同舟共济,因为我们确实如此。因此,迈向通用人工智能的最后几步——希望我们能够走在更长远的时间线上,实际上,我所考虑的时间线更长——然后我们就有时间在那之前建立所需的合作,至少在科学层面上。

Kevin Roose: 您是否觉得 AGI 已经到了最后的冲刺阶段?今年早些时候,我的《纽约时报》同事报道了谷歌联合创始人谢尔盖·布林发给谷歌员工的一份备忘录,上面写道:“我们正处于最后冲刺阶段,每个人都需要回到办公室,全程投入工作,因为现在才是真正重要的时刻。”您是否有那种终结感,或者说,我们即将进入一个新阶段,或者说,游戏即将结束的感觉?

Demis Hassabis:我认为我们已经过了中间阶段,这是肯定的。过去20年来,我一直在全力以赴,因为我一直坚信这项技术的重要性和意义非凡,20年来,我们都认为它有可能实现,而现在,它终于要出现在我们眼前了。我同意这一点。无论是5年、10年还是2年,当你讨论这项技术将带来的巨大变革时,它们实际上都只是相当短的一段时间。这些时间都不会很长。

Kevin Roose: 我们将转向关于人工智能未来的一些更普遍的问题。现在很多人开始思考通用人工智能之后的世界会是什么样子,至少在我参与的讨论中是这样。我听到最多的是家长们,他们想知道孩子应该做什么、学什么;他们会上大学吗?你的孩子比我的孩子大。你是怎么看待这个问题的?

Demis Hassabis:所以我认为,说到孩子们——我经常被问到关于大学生的这个问题——首先,我不会大幅改变一些关于STEM(科学、技术、工程和数学)的基本建议,比如精通编程之类的技能。因为我认为,无论这些人工智能工具未来如何发展,你最好先了解它们的工作原理、功能以及你能用它们做什么。我还想说,现在就让自己沉浸其中;就像我今天还是个青少年时那样,努力成为使用最新工具的忍者。我认为,如果你真的擅长使用所有最新、最酷的人工智能工具,你在某些方面几乎可以成为超人。但也不要因为基础而忽视了基础知识。然后,我认为要教授元技能——学会学习。我们唯一可以确定的是,未来十年将会发生巨大的变化。

那么,我们该如何做好准备呢?哪些技能对此有用?创造力、适应力、韧性——我认为所有这些元技能对下一代都至关重要。观察他们的未来将会非常有趣,因为他们将在人工智能时代成长,就像上一代人在移动设备、iPad 和平板电脑的时代成长一样。之前,互联网和电脑时代,也就是我的时代。我认为那个时代的孩子们似乎总是能够适应并利用最新、最酷的工具。我认为我们在人工智能方面还有更多可以做的。如果人们要将这些工具用于学校和教育,那么我们就应该让它们真正发挥作用,并且能够被证明是有效的。我非常期待能够大规模地将人工智能应用于教育领域。你知道,如果你有一个人工智能导师,我希望把它带到世界上那些教育体系较差的贫困地区。所以我认为人工智能也有很多好处。

Casey Newton:孩子们用人工智能做的另一件事就是和数字伙伴聊天。谷歌 DeepMind 目前还没有开发任何这样的伙伴。目前我看到的一些情况似乎相当令人担忧。创建一个只会夸赞你有多棒的聊天机器人似乎很容易,但这可能会导致一些难以捉摸和难以捉摸的地方。所以,我很好奇,你对人工智能伙伴市场有何观察?你是否想过将来自己开发这个,还是打算把这个留给别人去做?

Demis Hassabis:是的,我认为我们在进入这个领域时必须非常谨慎,这就是为什么我们还没有开始,而且我们对此进行了非常深思熟虑。我对此的看法更多的是从我们昨天谈到的通用助手的角度来看待的,它对你的日常工作效率非常有用:它能帮你摆脱那些我们都讨厌的无聊、单调的任务,让你有更多时间去做你喜欢做的事情。我也真心希望它们能通过提供一些很棒的推荐来丰富你的生活,比如推荐各种你从未想过会喜欢的精彩事物——用一些让你惊喜的事情来取悦你。所以,我认为这些就是我希望这些系统能够发展的方向。

实际上,从积极的一面来看,我觉得如果这个助手真的有用,而且非常了解你,你就可以对它进行编程,显然是用自然语言,来保护你的注意力。所以你几乎可以把它看作是一个为你工作的系统;你知道,作为个体,它是你的。它可以保护你的注意力不被其他想要吸引你注意力的算法所侵扰,这实际上与人工智能无关。大多数社交媒体网站都在有效地做这件事,他们的算法试图吸引你的注意力。我认为这实际上是最糟糕的事情,保护你的注意力会很好,这样我们就可以更多地投入到创造性的流程中,或者做任何你真正想做的事情。所以我认为这就是我希望这些系统对人们有用的方式。

Casey Newton:如果你能建立一个这样的系统,我想人们会非常高兴。我认为现在人们感觉自己被生活中的算法所困扰,不知道该怎么办。

Demis Hassabis:嗯,原因在于,你只有一个大脑,你必须深入其中,比如说社交媒体信息流,才能获取你想要的信息。但你用的是同一个大脑,所以你深入其中寻找有价值的信息,已经影响了你的思维、情绪和其他方面。但如果一个助手,一个数字助理,为你做这些,你只会得到有用的信息。而且你不需要打扰你的心情,也不需要打扰你当天正在做的事情,或者打扰你与家人相处的专注力,无论什么。我觉得那会很棒。

Kevin Roose: 凯西很喜欢这个想法,你也很喜欢这个想法,我也很喜欢这个AI代理的想法,它可以保护你的注意力免受所有试图攻击它的力量的侵害。我不确定谷歌的广告团队对此有何感想,但我们可以到时候问问他们。

Demis Hassabis:当然,当然。

Kevin Roose: 有些人开始关注就业市场,尤其是应届大学毕业生,他们担心我们已经开始看到人工智能导致失业的迹象。我曾与一些年轻人交流过,他们几年前可能对科技、咨询、金融或法律等领域感兴趣,但现在他们只是说:“我不知道这些工作还能持续多久。” 大西洋月刊》最近的一篇文章探讨了人工智能是否正在与大学毕业生竞争这些入门级职位。您对此有何看法?

Demis Hassabis:我还没研究过这方面,也没看过相关的研究。但你知道,也许现在开始显现了。我认为目前还没有确切的数字,至少我还没看到。目前我主要把它们看作是增强能力和成就的工具。我的意思是,也许在通用人工智能之后,情况会再次不同,但我认为在未来五到十年内,我们会看到重大新技术变革通常会发生的情况:一些工作岗位会被颠覆,但随后新的、更有价值、通常也更有趣的工作岗位会被创造出来。所以我认为这在短期内会是这样的。所以说,未来五年,我觉得之后的情况很难预测。这是我们需要做好准备迎接的更大规模社会变革的一部分。

Kevin Roose: 我认为问题在于,你说得对,这些工具确实给了人们更多筹码,但也减少了对大型团队进行某些工作的需求。我最近和一个人聊天,他说他们之前在一家数据科学公司工作,那里有75个人从事某种数据科学任务。现在他们在一家初创公司,现在一个人就能完成以前需要75个人才能完成的工作。所以,我想听听你的看法:另外74个人应该做什么?

Demis Hassabis:嗯,我认为这些工具将能够更快地释放创造事物的能力。所以我认为会有更多的人从事创业项目。我的意思是,有了这些工具,人们可以尝试和探索的范围比以前要大得多。就拿编程来说吧。显然,这些系统在编码方面正在变得越来越好。但我认为,最优秀的程序员能从中获得不同的价值,因为他们仍然懂得如何提出问题、构建整个代码库,并检查代码的功能。但与此同时,对于业余爱好者来说,它允许设计师,甚至非技术人员用“振动编码”来创作一些东西,无论是游戏、网站还是电影创意的原型设计。所以理论上,应该是那些70多岁的人来创造新的创业想法;也许大型团队会减少,而小型团队会增多,因为这些团队能够充分发挥人工智能工具的作用。但这又回到了教育的问题:哪些技能现在很重要?不同的技能,例如创造力、远见和设计敏感性,可能会变得越来越重要。

Casey Newton:您认为明年您雇用的工程师数量会和今年一样多吗?

Demis Hassabis:是的,我想是的;我们没有减少招聘的计划。但话说回来,我们必须看看编码代理的改进速度。现在,它们还无法独立完成工作。它们只是为最优秀的人类程序员提供帮助。

Casey Newton:上次我们和您谈话时,我们问到了一些公众对人工智能较为悲观的看法。您当时说,这个领域需要展示一些能够明显造福人们的具体用例,才能改变现状。我的观察是,现在越来越多的人积极反对人工智能,我认为其中一个原因可能是他们听到大型实验室的人大声疾呼:“最终,人工智能会取代你的工作。” 而大多数人只是觉得:“好吧,我不想要那个。” 所以我很好奇,回顾过去的谈话,您是否觉得我们已经看到了足够多的用例,足以开始转变公众观点?如果没有,那么哪些因素可能会真正改变公众的看法?

Demis Hassabis:嗯,我认为我们正在努力实现这些目标。这些目标的开发需要时间。我认为,如果某种通用助手真的属于你,并且能够有效地为你工作,那它就是其中之一——也就是能够为你服务的技术。我认为这也是经济学家和其他专家应该研究的课题:是否每个人都拥有一套代理,可以为你做事,包括可能帮你赚钱或制造东西?你知道,这会成为日常工作流程的一部分吗?我可以想象,在未来四五年内,这种情况会发生。我还认为,随着我们越来越接近通用人工智能,并在人工智能的帮助下,在材料科学、能源、核聚变等领域取得突破,我们的社会应该开始走向一种我称之为“彻底富足”的状态,即拥有大量资源可供分配。再说一次,这更像是一个政治问题,即如何公平地分配这些资源,对吧?所以我听说过“普遍高收入”这个说法。我认为,类似这样的做法或许是好的,也是必要的,但显然有很多复杂的因素需要考虑。而且,从现在到我们遇到这种情况时,有一个过渡期。在此期间,我们该如何应对这种变化?这也取决于这段过渡期的长短。

Kevin Roose: 您认为 AGI 将最后改变经济的哪个部分?

Demis Hassabis:我认为经济中涉及人与人之间的互动和情感的部分;我认为这些事情可能是人工智能最难做到的事情。

Kevin Roose: 但是,人们不是已经在进行人工智能治疗并与聊天机器人交谈,而他们可能已经为此付给某人每小时一百美元了?

Demis Hassabis:嗯,治疗是一个非常狭窄的领域,你知道,关于这类东西有很多炒作。我实际上不确定其中有多少真正影响了实体经济,而不是仅仅停留在玩具层面。而且我认为人工智能系统目前还无法真正做到这一点。但就我们在现实世界中通过相互交谈和在自然界中互动而获得的那种情感联系而言,我认为人工智能无法真正复制所有这些。

Casey Newton:所以如果你带领徒步旅行,那将是一份很好的工作。

Demis Hassabis:是的,我要去攀登珠穆朗玛峰。

Kevin Roose: 我的直觉是,一些监管严格的行业,比如医疗保健、教育等领域,会大力抵制利用人工智能取代劳动力或抢走人们的工作。但你认为,在这些监管严格的行业,人工智能的提振会更容易一些。

Demis Hassabis:我不知道,我的意思是说有可能。但作为一个社会,我们必须权衡——我们是否想要所有积极的方面。社会上并非除了人工智能之外没有其他挑战,但我认为人工智能可以解决许多其他挑战,例如能源资源限制、老龄化、疾病、水资源获取、气候等。我们今天面临着许多问题,我认为人工智能有可能帮助解决所有这些问题。我同意你的观点,社会需要决定如何利用这些技术。但是,同样正在发生变化的是我们之前讨论过的产品,技术将继续进步,这将开辟新的可能性,比如某种彻底的富足,太空旅行,这些事情,除非你读过很多科幻小说,否则在今天还有点超出范围,但我认为它们很快就会变成现实。

Kevin Roose: 工业革命期间,许多人拥抱新技术,从农场搬到城市,在新工厂工作,算是这条曲线上的早期采用者。但那也是超验主义者开始回归自然、拒绝科技的时候。梭罗正是在那时去了瓦尔登湖。当时,美国人掀起了一场声势浩大的运动,他们刚看到新技术就说:“我不这么认为,这不适合我。” 你认为未来会不会出现类似的拒绝人工智能的运动?如果会,你认为这场运动的规模会有多大?

Demis Hassabis:我的意思是,可能会有“回归自然”的趋势。我认为很多人都想这样做。我认为这可能会给他们提供空间和空间来实现这一点,对吧?如果你身处一个极其富足的世界,我完全相信我们很多人都会想这样做。我指的是太空旅行和人类繁荣的最大化。我认为这些正是我们很多人会选择做的事情,而且我们将有时间、空间和资源来实现它们。

Casey Newton:在你的生活中,是否有这样的时刻,你会说,我不会使用人工智能来做这件事,即使它可能因为某种原因而非常擅长,想要保护你的创造力或思维过程或其他东西?

Demis Hassabis:我认为人工智能目前还不足以触及任何这类领域。我主要用它做一些像你用 Notebook LM 那样的事情,我觉得它很好,很棒——比如打破一个新话题、一个科学话题的僵局,然后决定是否要更深入地研究它。总结一下,这是我的主要用例之一。我认为这些都很有帮助。但我们拭目以待。我还没有你建议的例子,但也许随着人工智能越来越强大,会有的。

Kevin Roose: 最近我们和 Anthropic 的达里奥·阿莫迪 (Dario Amodei) 聊天时,他谈到了自己对人工智能在各个领域取得的进步感到兴奋又略带忧伤的感受。他曾花费大量时间努力提升这些领域,比如编码。当你看到一个新的编码系统问世,它比你做得更好时,你会觉得这很神奇,但转念一想,哦,这感觉有点刺痛。你有过这样的经历吗?

Demis Hassabis:当然。所以也许我没那么难受的一个原因是,我很小的时候就下过国际象棋。国际象棋本来是我的第一职业,小时候我代表英格兰青年队打过相当专业的比赛,后来“深蓝”出现了,很明显,从那以后,计算机的计算能力将永远比世界冠军强大得多。但我仍然喜欢下国际象棋。人们仍然喜欢下国际象棋,这和以前不一样了,你知道,有点像尤塞恩·博尔特;我们庆祝他跑出了惊人的100米成绩。我们有汽车,但我们不在乎,对吧?我们感兴趣的是其他人类也能跑得快。我认为机器人足球和其他所有这些东西也会如此。这或许可以追溯到我们之前讨论的,我认为最终我们对其他人类感兴趣。这就是为什么即使是小说,也许有一天人工智能也能写出一部技术上很棒的小说。但我不认为如果你知道它是由人工智能编写的,它就不会具有相同的灵魂或与读者的联系,至少就我目前所见而言。

Casey Newton:你提到了机器人足球——这是真的吗?我们不是体育迷,所以我只是想确认一下我没有错过什么。

Demis Hassabis:我指的是足球。那里有类似RoboCup的足球比赛。小机器人会试着踢球之类的。我不确定比赛有多激烈,但那里确实有一块机器人足球场。

Casey Newton:你提到机器人写的小说可能感觉不到有灵魂。我不得不说,尽管 Veo 或Imagine 的技术令人惊叹,但我对它们也有点这种感觉,它们看起来很美,但我不知道该怎么对待它们。你明白我的意思吗?

Demis Hassabis:没错,这就是我们与Darren Aronofsky和Shankar [Mahadevan]等伟大艺术家合作创作音乐的原因。我完全同意你的观点——这些工具确实能创造出技术上很棒的作品。Veo 3 简直令人难以置信——我不知道你是否看过现在一些带有声音的热门视频;实际上,我之前并没有意识到音频会给视频带来如此大的变化——我认为它真的赋予了视频生命力。正如 Darren 昨天在一次采访中所说,Veo 3 仍然没有带来叙事性。它不像电影大师或巅峰时期的小说大师那样拥有深刻的叙事能力。而且它可能永远都做不到,对吧?总感觉缺少了点什么。更确切地说,是作品的灵魂,你懂的?真正的人性,伟大艺术作品中的魔力。当我看到梵高或罗斯科的作品时,为什么会触动我?你知道吗,我的脊背上汗毛都竖了起来?因为我记得,你也知道,他们为了创作这些作品经历了什么,经历了多少挣扎,对吧?梵高的每一笔,都饱含着他那种折磨。我不知道这意味着什么,即使人工智能模仿了这些。所以我认为,至少在我看来,在未来五到十年内,顶尖的人类创作者会一直创作出这样的作品。这就是为什么我们所有的工具——Veo、Lyria——都是与顶尖的创意艺术家合作开发的。

Kevin Roose: 据报道,新任教皇利奥·普京对AGI 很感兴趣。我不知道他是否对AGI感兴趣,但他之前确实谈过这个话题。在一个AGI迫使我们思考生命意义的世界里,您认为我们会迎来宗教复兴,还是人们对信仰和灵性的兴趣会再次复兴?

Demis Hassabis:我认为情况有可能如此,我实际上确实和上一任教皇谈过这个问题,梵蒂冈甚至在本任教皇之前就对这些问题很感兴趣——我还没有和他谈过。人工智能与宗教,以及科技与宗教之间是如何互动的?天主教会的有趣之处在于,我是教皇科学院的成员,他们一直有自己的一套方法,这对于一个宗教团体、一个科学机构来说很奇怪,他们总是喜欢说伽利略是它的创始人。

Kevin Roose: 对他来说不太好!

Demis Hassabis:这实际上是一个独立的研究领域,我一直觉得这很有意思。像史蒂芬·霍金这样的人,以及那些公开宣称的无神论者,都是该学院的成员,这也是我同意加入的部分原因,因为它是一个完全科学的机构,而且非常有趣。我很惊讶他们对此感兴趣已经十多年了,所以他们很早就意识到了这项技术从哲学角度来看会多么有趣。我实际上认为我们需要更多来自哲学家和神学家的此类思考和工作。所以我希望新教皇真的对此感兴趣。

Kevin Roose: 最后,我们来回答一个问题,我最近听到泰勒·考恩问 Anthropic 的杰克·克拉克,我觉得这个问题非常好,所以我决定直接引用:在正在进行的人工智能革命中,什么年龄最糟糕?

Demis Hassabis:天哪,我还没想过这个问题。但我认为,只要你能活到那个时候,就是一个好年龄,因为我认为我们将在医学等领域取得巨大进步,所以我认为这将是一段不可思议的旅程。我们谁也不知道它究竟会如何发展,这很难说,但去探索它将会非常有趣。

Casey Newton:如果可以的话,尽量保持年轻。

Demis Hassabis:是的,年轻总是更好。总的来说,年轻总是更好。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10