谁在杀死OpenAI?7年元老出走,Sora沦为弃子,理想主义崩塌

新智元
Feb 20

编辑:元宇

【新智元导读】当OpenAI亲手放弃“仰望星空”,一家誓言用AGI造福全人类的AI圣殿,正在经历一场理想主义的倒退。

OpenAI正在“杀死”OpenAI?

5000亿估值、处于“资本结构”悬崖边缘的OpenAI,正在经历一场理想主义的倒退!

是的,为了对抗Anthropic和谷歌,奥特曼决定不再“浪漫”。

这家曾经坚持“为全人类造福”理想主义的AI实验室,不得不亲手扼杀曾经引以为傲的“仰望星空”文化。

最新消息显示,奥特曼已将公司核心资源从探索性的长线研究(Blue-sky research)全面倾斜至旗舰产品ChatGPT的工程化改进。

这一战略调整,导致包括前研究副总裁Jerry Tworek在内的多位核心元老因理念分歧而心寒出走。

非核心大模型项目面临资源枯竭,Sora团队被边缘化,基础研究沦为“二等公民”……

这一系列变化让一些元老研究员感叹:这里已容不下仰望星空!

如今,OpenAI这种急功近利的转型,已导致了内部工程师叛逃和市场的残酷反噬。

OpenAI拉响“红色警报”,并没有影响Claude在AI编程工具领域“曲棍球棒式”的增长曲线!

前ThoughtWorks首席数字官Marcelo De Santis在LinkedIn发帖说道。

Claude的爆发式增长揭开一个冷酷真相:工程师没有忠诚度,他们只会用脚投票。

前OpenAI首席科学家Ilya Sutskever曾在去年年底的一次访谈中谈到,AI的“扩展时代”已走向尽头,现在进入“研究时代”:

单纯的预训练+大规模模型+单次训练模式已遇瓶颈,要实现AGI(人工通用智能),需要通过迭代学习、真实环境部署和价值对齐等基础研究来构建更接近人类智能的系统。

OpenAI联合创始人兼总裁Greg Brockman此前也曾表示,由于用户需求高涨,OpenAI不得不将大量计算资源从研究中重新分配出去。

这些变化,在网友看来,并不是什么好兆头。

他们原本最大的优势就是研究上的领先,但现在可能只剩下品牌优势了:人们曾把“ChatGPT”等同于“AI”。

01

开发者没有忠诚度

只看谁的工具“更锋利”

就在OpenAI内部进入全员战备的“红色警报”状态时,Marcelo敏锐地捕捉到Claude在AI编程工具领域,爆出了一条典型的“曲棍球棒式”增长曲线。

在代码的世界里,好用即正义。

因此,工程师也许是这个世界上最现实、最没有“品牌滤镜”的群体。

一时激增的下载量并不代表忠诚,它只代表此时此刻,你比别人好用。

这一点就像Marcelo说的,工程师非常看重选择权:

当Claude能帮他们更快地写完代码、更少地修Bug时,谁还会死守着ChatGPT不放?

这也揭示了一个更深层的逻辑:无论OpenAI,还是其它AI实验室,他们引以为傲的品牌护城河,在实打实的生产力提升面前,脆弱得不堪一击。

被竞争对手的爆发式增长吸走用户,对于OpenAI来说,还不是最让它头疼的。

更为“釜底抽薪”的变化,是OpenAI的战略调整,动摇了曾经重视研究的文化,致使一些核心研究员的流失,损害了企业未来的根基。

02

只有ChatGPT才是亲儿子

其余皆是“二等公民”

“红色警报”拉响之后,OpenAI内部也爆发了一场“资源内战”。

当奥特曼将所有核心资源,都毫无保留地倾向ChatGPT后,在OpenAI这个庞大的商业帝国里,ChatGPT成了唯一的“亲儿子”,它几乎吸干了一切核心资源。

据多位内部知情人士透露,为了与Google和Anthropic进行这场“割喉式”的军备竞赛,OpenAI内部所有的顶级资源:算力、数据、最聪明的算法工程师,全都被强制向ChatGPT倾斜。

一位知情人士直言:“OpenAI现在把语言模型完全当作一个工程问题。即通过不断扩大算力、堆算法、喂数据,从中榨取哪怕一丁点的性能提升。”

那些曾经让OpenAI熠熠生辉的基础研究,以及不直接赚钱的探索性研究(Blue-sky research)全都靠边站了。

如果你所在的团队不是搞大语言模型的,基本上是拿不到太多算力额度预算的。

比如负责Sora(视频生成)和DALL-E(图像生成)的团队正面临被忽视、资源枯竭的窘迫现状。

原因很简单:它们被认为与ChatGPT的核心战略“关联不大”。

一位内部员工无奈地感叹:

如果你想做真正前沿、探索性的研究,在现在的OpenAI会非常困难。一旦你不在核心团队里,事情就会变得极其政治化。

不搞ChatGPT,你就是“二等公民”。

这种急功近利的“单一化”,虽然可能在短期内保住市场份额,但它正在杀死OpenAI的灵魂。

那个曾经充满了好奇心、愿意为未知买单的AI实验室,正在变成一家平庸的、只为KPI奔命的硅谷大厂。

03

七年功勋元老心寒出走

这里已不容“仰望星空”

这种资源大转移和基础研究边缘化,最先破碎的是一些元老研究员的心。

今年1月,OpenAI研究副总裁Jerry Tworek宣布离职。

这可不是普通的跳槽。

Tworek已在OpenAI待了整整七年。

他见证了这家公司从默默无闻到火爆全球的全过程,是负责ChatGPT“推理”研究的核心人物。

他的离去,最重要的一个原因是“基础研究”信仰的崩塌。

Tworek想做的是“持续学习”(Continuous Learning),让模型在吸收新数据的同时,还能保留既有的知识。

这是通往通用人工智能(AGI)的一条重要路径,但这条路似乎有些太慢了,不太符合OpenAI现在的赚钱节奏。

知情人士透露,Tworek多次向管理层申请更多的算力和人员支持无果,最后的导火索,是他与首席科学家Jakub Pachocki的冲突。

Pachocki更看好现有的、能快速见效的大语言模型架构。公司需要的是能马上落地的产品,而不是不知何年何月才能跑通的理论。

这是两种价值观的决裂,并没有严格的对错。

一种是“仰望星空”,愿意为了科学的未知去冒险;另一种是“低头捡六便士”,为了商业胜利和竞争对手厮杀。

Tworek的离开,被视作OpenAI理想主义的一种倒退。

不仅是他,负责模型政策研究的Andrea Vallone也跳槽去了Anthropic。

她之前的研究方向是如何应对用户对ChatGPT产生“情感依赖”后的心理健康问题,在公司疯狂追求增长的当下,这种伦理研究显然显得格格不入。

还有经济学家Tom Cunningham也选择了离开。

他暗示OpenAI正在偏离中立的研究立场,转而去做那些更有利于公司公关形象的工作。

一位前高级员工道出了其中无奈:

理论上,公司说愿意支持各种研究。但实际上,资源分配极其势利。你会真切地感觉到,相对于核心项目,自己就是个弃子。

比人才流失更可怕的是,留下来的人都只想着怎么把ChatGPT的性能再提升0.1%,而不再关注其它。

OpenAI在官方博客中表示,企业使命是为了“确保AGI造福全人类”。

2019年OpenAI在成立OpenAI LP时公开解释过:

他们希望“成功后创造的大部分价值能惠及所有人”,并设计了投资回报封顶(早期投资者回报封顶100x,未来轮次预期更低)。

这至少是一个很典型的“理想主义”的制度化设计。

但在AI军备竞赛的大环境下,这些理想主义最多只能停留在官方博客的宣传栏里。

目前OpenAI呈现出的,更多是在理想和现实之间高度矛盾的一种状态:

它既推动安全叙事,也在强商业化道路上快速前进,并引发过内部与外部的多次争议。

04

关乎3000万开发者命运的“范式大转移”

看完了巨头厮杀和高管离职,我们将视线收回到普通人身上。

在Marcelo看来,软件工程正在经历一场从“逐行代码”到“并行编排智能体”的彻底重构,也将全球3000万开发者带到了一个十字路口。

以前,开发者的核心竞争力是写代码的能力,但在AI编程助手已经能将生产力提升20%,甚至翻倍的今天,单纯的“写代码”已经不再是核心竞争力了。

开发者的工作范式变了:未来他们将不再是代码的搬运工,而成了AI智能体的“指挥官”。

他们需要做的是并行编排多个AI Agent(智能体),让它们去构建、去测试、去交付产品。

这时需要的是更高层次的判断力、经验和系统性思维。

比如,Andrej Karpathy就曾表示自己的编程工作流,已经从“80%手写代码+ 20%AI生成代码”变成“20%手写代码+ 80% AI生成代码”。

OpenClaw(Clawdbot)开发者Peter Steinberger,认为现在的开发已从“Vibe Coding”(氛围编程)进化为“代理工程”。

他不再阅读代码,而是“观察”代码流,通过5-10个Agent并行工作完成任务。

网友评价Steinberger是个指挥家,GPT和Claude就是他的乐团,“一人即成一支军队”。

如今,Steinberger已成为“Vibe Coding”的重度用户,甚至在外出社交时他也会在手机上“vibe coding”(氛围编程),他认为AI让自己重新找回了编程的乐趣。

而最近大火的Moltbook,也被曝出大量依赖 “vibe coding”构建。

Moltbook的创始人Matt Schlicht更是表示自己一行代码都没写过:

我只是对技术架构有个构想,而AI让它变成了现实。

这些编程大神们的案例,印证了Marcelo口中所说的,全球3000万开发者正在面临一场编程范式的大转移。

而在这场大转移中,无论Codex,还是Claude,这些大模型只是你的工具,好比租来的“雇佣兵”,开发者应当思考的是如何掌握系统性思维,学会如何指挥AI军团。

未来,只有能驾驭AI的人才不会被AI淘汰。

有意思的是,Steinberger信任的AI工具是OpenAI的Codex,他认为Claude的Opus模型bug太多,而Codex可以更好地驾驭大型代码库。

近日,奥特曼也曝出自家的Codex太好用,“我感到有些无用,这让我很难过”。他还曝出接下来一个月会陆续推出一系列Codex相关的激动人心的产品。

无论OpenAI和Claude如何打得头破血流,普通开发者只关心哪个工具更好用。

开发者这种不站队的“中立姿态”,给了OpenAI反击Anthropic“曲棍球”式增长的一次机会。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10