AI教父Hinton对话云天励飞陈宁:AI学习效率比人类高数十亿倍,推理芯片将主导5万亿市场

智东西
Dec 02, 2025

智东西

作者 | 李水青

编辑 | 漠影

智东西12月2日报道,今日,77岁的诺贝尔物理学奖得主、“AI教父”杰弗里·辛顿(Geoffrey Hinton)在2025 GIS全球创新展上发表演讲,并在硅谷科学家吴军的主持下与中国AI芯片领军企业云天励飞董事长兼CEO陈宁展开了一段精彩的线上对谈。

辛顿有一段广为人知的“AI养虎论”——在此前7月的访华演讲中,他将超级智能比作终将反噬人类的猛兽,呼吁要像几十年前美苏联合预防核战争一样进行治理。而当这位AI领域的“先知”带着他的终极忧思,遇上正蓬勃发展的中国AI产业力量时,会碰撞出怎样的思想火花?

今天这场演讲及简短而高效的对谈,浓缩了从危机认知、范式博弈到技术路径的全景探讨,智东西将主要的信息干货提炼如下:

1、(辛顿)AI系统之间的知识蒸馏效率相比人际信息交换,“效率提升好几十亿倍,真的非常可怕”,其进化速度可能远超人类。

2、(辛顿)一旦制造出超级智能,它们会衍生出“生存”这个子目标,并且非常擅长欺骗人类。我们必须确保AI永远不会来针对人类。

3、(辛顿)在AI转型中,中国可能更有动力,政府与大企业协作更深入,对后果有更多的预防性措施,AI带来的负面影响可能比在美国小。

4、(辛顿)发展AI若忽视实际应用,将会是一个重大失误;只考虑应用而不推动底层理念发展,也是大错特错。基础研发和应用两者都非常重要。

5、(辛顿)受大脑启发的模拟计算功耗极低,有巨大能效潜力,但存在“硬件与知识绑定”的缺陷;主流的数字计算则功耗高,但知识可分离和共享。

6、(陈宁)通过设计更高效的NPU(神经网络处理器),目标是实现百倍以上的效率提升,将智能体推理成本大大降低,将在全球带来AI普惠。

7、(陈宁)到2030年,AI芯片产业规模可能达到约5万亿美元推理芯片将占主导(约80%),其市场规模将远超训练芯片。

辛顿的演讲及圆桌对话纪要全文如下,智东西做了不改变原意的编辑:

一、辛顿最新演讲:AI学习速度已领先人类数十亿倍,“真的非常可怕”

辛顿本次的演讲还是从AI发展历史和运作机制聊起,他提到,现代大语言模型的强大能力在于仅从预测下一个词的任务中,就能学习到复杂的语言结构和语义,这一过程与人类学习语言的方式高度相似。

紧接着,他肯定了受大脑启发的“模拟计算”的巨大能效潜力。他指出,我们都很习惯数字计算,这种主流计算方式功耗高,妨碍了我们使用丰富的模拟特性;受大脑启发的模拟计算功耗极低,但也面临“硬件与知识绑定”的缺陷。

而将视野拉回当下AI产业发展图景,辛顿赞叹了AI知识传递与智能体进化的惊人效率。

他提到,AI之间学习正在变快。以DeepSeek与Llama模型举例,他阐述了“AI系统之间的蒸馏效率要高得多”,相比人际信息交换,“效率提升好几十亿倍,真的非常可怕”,AI进化速度可能远超人类生物进化与文化进度。这是其本次演讲中最具警示性的观点之一。

以智能体协作的图景为例,他谈道:成千上万的智能体一起工作,互相分享它们的经验,之后通过数字神经网络连接,这是人不可能做到的。虽然生物计算消耗的能量非常低,我们吃一碗饭、一个馒头就可以用大脑,但是在信息传递和分享方面,效率太低了。

他进而提到,如果能源能够便宜,那数字计算肯定比大脑计算更好用。

最后,辛顿重申了了关于超级智能的风险与治理,并强调了中国在这方面的优势。

他认为大部分人相信在未来20年超级智能可以被制造出来,一旦我们制造出超级智能,他们就会有“生存”这个子目标并且非常擅长欺骗人类。他倡导,我们必须想办法确保AI永远不会来针对人类,各国家和地区都应该携手让AI朝着正确的方向发展,需要去重新构架当前人与AI共存之治理模式。

他还提到,中国在这方面更有优势,政府与大企业协作更深入,中国在转型当中可能更有动力,也会对这个转型带来的后果有更多的预防性的措施,在中国人工智能带来的负面影响会比在美国小。

二、中国AI芯片先锋对话辛顿:算力成本要降百倍,推理芯片将主导5万亿市场

辛顿描绘了一幅关于AI进化能力潜在风险的宏大图景,并提及了算力瓶颈潜力方向。那幺正处于AI产业化浪潮中心的中国科技力量,特别是在一线致力于“驯服”算力成本、推动技术落地的实干家们,又会作何回应?

在辛顿演讲之后,硅谷科学家吴军、中国AI芯片企业云天励飞董事长陈宁与他从最底层的类脑计算探索,到现实的产业区域竞争,再到未来市场规模预测,展开了务实而富有前瞻性的探讨。

吴军(左)、陈宁(中)和辛顿(右屏幕)

1、从前沿类脑计算到NPU:智能体推理成本将降百倍

吴军:辛顿教授刚才提到模拟计算,并与数字计算做了对比。您认为,是否有可能将数字芯片和模拟芯片集成到芯片级甚至计算机级的系统中,从而制造出更接近人类的系统,更好地模拟人类思维?我们是否有可能借此创造出物理世界中的数字人?

杰弗里·辛顿:这里面确实有明显的优势。模拟芯片在功耗、计算能力以及传输效率上表现更好。目前有很多研究者在培育“类器官”,例如在圣克鲁斯等地,类器官的培育已经取得了一些成功。

吴军:我们是否真能利用这类技术来实现细胞组合与生成,并进行计算?这样的“类器官”是否能模拟人脑计算,从而大幅节省能源?

陈宁:在我们为“类器官”找到合适的算法之前,很难创造出真正的价值。类器官必须结合高效的学习算法,才能真正实现能效提升,达成计算目标。

杰弗里·辛顿:目前还没有真正实现基于脑细胞“类器官”的计算,这类模拟计算尚未发挥出巨大价值。谷歌的芯片在语音识别之后,可能会进一步突破,打造新的硬件芯片。如果真的想实现生物计算,还有很长的路要走。无论是研究的方向,还是具体的项目,都还需要更多的探索。

吴军:当前人工智能已经取得了很多进展,但若要训练一个类似ChatGPT的模型,仍可能需要花费数十亿美元的成本。您刚才提到可以通过模拟设施来解决这个问题,正好我们今天现场有一位专家,可以从他的角度谈谈对这个问题的看法。陈宁博士,你们是否通过研究将AI的成本从数十亿美元降低到了几千美元吗?

陈宁:我们大约从11年前开始这项工作,公司中文名叫“云天励飞”。我们的使命是设计更高效的AI芯片。刚才辛顿教授提到,AI非常强大,我们需要更好地训练AI——我完全同意。我们需要更好、更高效率、更低成本的AI,这些都非常重要。AI向善意味着AI本身具备强大能力,并且是真正为人类服务,让全人类都能广泛受益。

我们现在需要建立更经济的AI训练模式,NPU(神经网络处理器)是实现高效AI的关键。谷歌在TPU(一种NPU)方面做得非常出色,与同性能的GPU相比能降低约30%的成本甚至更多。2025年我们将进入AI推理时代,大家现在都在讨论智能体,我们的目标是将智能体推理的成本降低100倍,原本需要花1美元(消耗几百万token)处理的任务,不久后可能只需要1美分。再过两年,人们将能够从AI中获得更多益处。从这个角度看,AI将能够覆盖更广泛的人群,例如在农业农村发展、医疗健康、教育等各个领域,AI都能发挥巨大的价值。

如今,许多国家和地区都在训练自己的AI模型。中国在AI方面发展得非常快,也在不断探索更多AI的应用场景。预计到2027年,也就是两年后,AI应用和智能体的普及率将超过70%;再往后推三十年,这个比例预计会超过90%。现在每家公司都在使用AI,每个普通用户也都在用。

AI能够提供被采纳后的反馈,而来自真实世界的反馈对AI来说也非常重要。这可以从两个方面来看:一方面,我们为AI提供输入,这本身是一种反馈;另一方面,AI给出反馈后,我们再对它进行反馈,这样AI就会变得更聪明。这也是我们公司的目标和产品方向——我们已经设计了5代NPU和GPU,希望能为整个行业提供更具成本效益的AI芯片。

2、辛顿称忽视实际应用或底层技术,都是重大失误

吴军:今年7月您曾去过上海,看到有很多研究机构都在做大语言模型;您也经常来香港,香港和深圳北正成为全球硬件中心并诞生大量原生AI硬件。在AI时代,您认为两地(长三角和粤港澳大湾区)哪个有更明显的优势?

杰弗里·辛顿:长三角和大湾区各自的优势是不同的。我们需要思考如何通过AI的应用与研究来创造更多价值,针对不同的应用场景提出新思路,这些都非常关键。我们努力让AI变得更智能,但如果忽视实际应用,将会是一个重大失误;而如果只考虑应用,却不思考如何改进技术、推动底层理念的发展,那同样是大错特错。中国拥有上海周边的长三角地区,那里聚集了大量的AI技术开发力量;而大湾区或许会更侧重于AI的应用层面。基础研发和应用两者都非常重要。

吴军:下一个问题想问陈博士。您提到五年后token的计算价格可能会大幅降低,届时芯片市场或许会占整个AI市场的20%。您预计未来3-5年芯片市场规模会达到多大?如果不考虑英伟达,未来3-5年整个市场规模又是多少?这将对整个行业产生怎样的影响?

陈宁:五年后,芯片在整体市场中的份额确实会下降。到2030年,AI芯片产业规模可能达到约5万亿美元(市场收入)。今年我们还没看到大的变化,但到2035年,AI将实现从训练到推理的整体转型或说过渡。AI模型会有更多应用,而智能体的应用也需要做得非常出色。大约12个月后,我们或许会看到推理芯片的市场规模超过训练芯片。

到2030年,训练芯片的规模可能在1万亿美元左右,而推理芯片可能接近4万亿美元。刚才提到芯片占整体市场的比例会下降,这主要是由于训练芯片占比降低,但推理芯片有望大幅增长。总体来看,通过相应的计算,推理芯片应该会占到AI芯片的80%,这个数字是经过比较准确的测算的。

未来五年,AI将重新定义所有数字应用、硬件和电子设备,AI智能体也可以帮助我们的生活变得更高效、更美好,届时AI推理芯片将无处不在。我也向国际电联提出建议,希望他们能启动一项全球推理芯片的标准制定,让世界各地都能在互联互通的网络中获取更多收益和价值。相信AI芯片会像水电一样无处不在,发挥巨大作用,同时成本也会大幅降低。

3、辛顿:不后悔发布神经网络论文,但应该更早警惕AI风险

吴军:我对您的经历很感兴趣,您在本科没有读计算机而是选择心理学等其他专业,广泛的涉猎如何帮助你成为最顶尖的计算机科学家?或者说,对计算机科学家而言,是否有其他技能可以帮助他们更好地锤炼自己?

杰弗里·辛顿:我读的是心理学、生理学和哲学,一开始完全不懂计算机科学。如果说要我动手搭建一条管线,我可能毫无办法;但如果是要提出一个解决方案,我可以给你一些相关的建议。早在中学时期,我就对生理学特别感兴趣,我想弄明白大脑是如何运作的。我学习了心理学、生理学,后来又学了人工智能和神经科学。这些不同的学科其实都是为了解决某些具体问题。所以当我们遇到真正棘手、特别困难的难题时,跨学科的知识往往能提供更好的解决办法。当我们想要解决一个问题时,就会主动去学习那个领域的知识,以此推动问题的解决。这也是为什么我后来会去学习统计物理学。

吴军:上世纪90年代初,神经科学还是一个非常热门的领域,但十年之后出现所谓的“神经科学的冬天”,很多这个领域人才离开了研究岗位,转向其他领域。对你来说,是什么让你相信自己仍然走在正确的道路上?在人工智能遭遇寒冬的时候,你为什么会坚持走下去?

杰弗里·辛顿:对我来说,最关键的并不是我要做出怎样的技术,而是我想理解大脑是如何学习的。当我们最初发现神经网络时,在数据有限的情况下,它的表现甚至不如SVM(支持向量机)。但我依然继续研究神经网络,因为我对大脑的学习机制太感兴趣了。后来事实证明,支持向量机之所以一度表现优于神经网络,是因为当时使用的数据集比较小;一旦有了海量数据,神经网络的价值就真正展现出来了。

陈宁:如果您有一台时光机,可以回到2012年,甚至回到开始研究神经网络后的几十年,你还会发表那篇AlexNet论文吗?如果没有发表那篇论文,现在的技术发展会慢很多吗?

杰弗里·辛顿:这个问题其实不太好回答。我认为该发生的终究会发生,我可能还是会发表那篇论文。但如果真能回到过去,我可能会从那时候起,就开始警惕人工智能可能带来的一系列风险——这是我现在能想到的、若回到过去会想做的事。

结语:务实发展推动AI普惠,全球协作治理推动AI向善

在这场跨越地域与视角的对话中,辛顿以其一以贯之的深刻与警醒,将超级智能的长期风险置于聚光灯下。而来自中国AI产业前沿的探索者,则展示了如何通过技术创新与产业协作,在当下解决成本、能效与普惠等迫切问题。

两者看似一远一近,实则构成了应对AI时代挑战不可或缺的一体两面。没有对终极风险的清醒认知,当下的狂奔可能迷失方向;而缺乏将宏大愿景转化为务实解决方案的能力,再深刻的警告也可能沦为无力的空谈。

可以看到,从降低百倍推理成本的具体目标,到构建全球芯片互联标准的倡议,中国力量正在尝试将安全、普惠与发展的多重目标,编织进技术演进的现实路径中。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10