OpenAI CEO警告:美国严重低估中国AI实力,出口管制也没用!

金融界
Aug 19

OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)最新警告称,美国可能低估了中国在人工智能(AI)方面取得进展的复杂性和严重性,并表示仅靠出口管制可能不是可靠的解决方案。

奥尔特曼近日罕见接受了一些媒体的公开采访。他表示,自己对于中国AI取得的进步有些担忧,“我很担心中国(的实力)。”

他警告说,美中人工智能竞赛已经深深纠缠在一起,而且其影响远比单纯“谁领先”这种排行榜要大得多。

“在推理能力方面,中国可能构建得更快。此外还有研究能力、产品化水平,整个领域有很多层面。我认为问题不会像‘美国领先还是中国领先’那么简单。”他补充说。

另一方面,尽管美国不断升级对半导体的出口管制,但奥尔特曼仍对这些政策能否跟上技术发展表示怀疑。

当被问及如果通过管制进一步减少对华GPU供应是否会奏效时,奥尔特曼对此表示怀疑,并称:“我的直觉是,这行不通。”

他说道:“你可以对某个环节实施出口管制,但或许未必精准……也许人们会建立晶圆厂或找到其他变通办法。”他指的是半导体制造设施,即生产芯片的专业工厂。

“我想要一个简单的解决方案。但我的直觉是:这很难。”他补充说。

中国开源系统的影响

奥尔特曼表示,中国的人工智能进步也影响了OpenAI对自身模型发布策略的思考。

虽然OpenAI长期以来一直拒绝将其技术完全开源,但奥尔特曼表示,来自中国大模型的竞争——尤其是像DeepSeek这样的开源系统,是OpenAI最近决定发布自家开放权重模型的一个因素。

“很明显,如果我们不这样做,未来世界的大部分系统可能会建立在中国的开源模型之上。这当然是我们做出决定的一个因素。虽然不是唯一一个,但这个问题似乎很大。”他说。

本月早些时候,OpenAI发布了两款开放权重语言模型,这是该公司自2019年推出GPT-2以来首次发布开放权重模型,标志着该公司战略上的一次重大转变。此前,OpenAI长期以来一直将其技术封闭在应用程序编程接口(API)之后。

新的纯文本模型称为gpt-oss-120b和gpt-oss-20b,旨在作为开发人员、研究人员和公司可以下载、在本地运行和自定义的低成本选项。

据了解,如果一个AI模型的参数(即在训练过程中学习到的、决定模型如何生成响应的值)是公开的,则该模型被视为开放权重。虽然这提供了透明度和控制力,但它与开源不同。OpenAI至今仍未发布其训练数据或完整的源代码。

随着此次发布的发布,OpenAI 加入了这股浪潮,目前,它是唯一一家积极倾向于更开放方法的美国主要基础模型公司。

如果人工智能模型的参数(在训练过程中学习到的决定模型如何生成响应的值)是公开可用的,则该模型被认为是开放权重的。虽然这提供了透明度和控制,但它与开源不同。OpenAI仍然没有发布其训练数据或完整的源代码。

不过,外界对这次开放权重模型的发布仍然褒贬不一。一些开发者认为,这些模型表现平平,并指出OpenAI商业产品中那些强大功能在开放权重版本中被剥离了。

奥尔特曼并未反驳这一点,他表示团队是有意针对一个核心应用场景进行优化:本地运行的编程代理。

“如果世界上的需求发生变化,你也可以将模型转用于其他用途。”他说。

责任编辑:山上

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10