大模型“缩放定律”悖论:RL(强化学习)越强,AGI(通用智能)越远?

华尔街见闻
2025/12/24

在人工智能迈向通用智能(AGI)的竞赛中,当前最受追捧的强化学习(RL)路径,可能正将我们引向一条歧路——RL越强,距离真正的AGI或许越远。 12月24日,知名科技博主、Dwarkesh Podcast博客主持人Dwarkesh Patel今日发布了一则引发行业深思的视频,直击当前大模型发展的痛点。在硅谷普遍对Scaling Law(缩放定律)和RL(强化学习)持极度乐观态度的背景下,Patel...

网页链接

免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。

热议股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10