起底Altman的另一面:谎言、权谋与万亿赌局

华尔街见闻
Apr 07

当一家掌握重塑文明技术的公司冲向万亿估值时,市场关心增长与算力,但围绕Sam Altman的核心问题却只有一个:信任。一份横跨数百人访谈的调查提出质疑——这位AI时代的关键人物,是否值得托付未来?

据《纽约客》4月6日发表的深度报道,对Altman的质疑并非来自外部,而是出自他最亲近的同事与董事。一份内部备忘录的第一条指控就是“撒谎”。在他们眼中,Altman习惯对不同对象讲述不同版本的现实,而这个人,正主导AI的走向。

2023年被解雇又迅速复职的五天权力风暴,没有澄清问题,反而加深疑问:当资本、员工与技术力量集体站队,一位CEO是否已经超越了任何实质性约束?

与此同时,OpenAI正深入军方、中东资本与敏感国家基础设施领域,而公司内部安全承诺却被削弱,“安全”甚至从核心业务中消失。理想主义外壳,正在被现实利益重塑。

问题因此升级——这不只是个人诚信,而是结构性风险:AGI的钥匙集中在少数人手中,而其可信度存疑,人类是否还拥有“刹车权”?

Altman曾说,AI需要一点“虚构”的魔力。但真正的不确定在于:当现实与叙事边界开始模糊,我们面对的,究竟是一个改变世界的天才,还是一场无法验证的宏大故事。

"谎言"——前同事的秘密备忘录

2023年秋,OpenAI首席科学家Ilya Sutskever以消失消息的形式,向另外三位董事秘密传递了约70页的内部文件汇编。这批材料包括Slack聊天记录、人力资源文件及说明性文字,部分内容以手机拍照方式留存,显然是为了规避公司设备的监控。

这批内部文件此前从未被完整披露。其中一份专门针对Altman的备忘录以一份清单开篇,标题为"Sam持续展现出……",第一条即是:"撒谎。"

Sutskever积累这些担忧有其思想脉络。他曾是Altman的朋友,2019年甚至在OpenAI办公室主持了联合创始人Greg Brockman的婚礼。

但随着他愈发相信公司正在逼近其终极目标——创造出能够与人类认知能力相媲美乃至超越人类的AI——他对Altman的疑虑与日俱增。他当时对另一位董事说:

"我不认为Sam是那个应该握住按钮的人。"

AI政策专家Helen Toner与企业家Tasha McCauley收到这批文件时,视之为印证:这两位女性已经各自形成了类似判断。"他被赋予了人类的未来,"一位知情董事对《纽约客》说,"但他不值得信任。"

从Y Combinator到OpenAI:一个争议性崛起

Altman并非横空出世。他的职业模式在远早于OpenAI之前便已形成。

他在斯坦福大学读了一年半后,加入了著名程序员Paul Graham创办的创业孵化器Y Combinator(Y.C.)。

他的第一家公司Loopt是一款基于手机位置的原始社交网络,折射出他的一个长期特质:将模糊的规则解读为对自己有利的规则。

Loopt时期,已有员工对他的夸大其词感到困惑。一名前员工回忆,Altman曾大肆吹嘘自己是乒乓球冠军,"密苏里州高中乒乓球冠军之类的",但实际上是公司里打得最差的人之一。

一位曾被投资者安排担任Altman"监护人"的资深员工Mark Jacobstein后来将这种习惯描述为:

"'我认为我也许能做到'和'我已经做到了'之间的界限模糊,在最极端的形式下,就会走向Theranos那样的骗局(硅谷著名骗局)。"

2014年,Graham退休前将Altman擢升为Y.C.主席。然而到2018年,多位Y.C.合伙人已对Altman的行为深感不满,据多位当时在场人士的陈述,Graham夫妇曾与Altman进行了一次坦率谈话,实质上是迫使他离开。

Graham曾私下对Y.C.同事表示,在Altman被要求离开之前,"Sam一直在欺骗我们。"

Altman本人坚持声称自己从未被Y.C.解雇,且离开完全出于本人意愿。Graham的公开表述则相对模糊,他告诉《纽约客》:"我们没有法律权力解雇任何人。我们所能做的只是施加道义压力。"

OpenAI的创立:用末日叙事募集理想主义

2015年,Altman向Elon Musk发出了一封电子邮件,由此奠定了OpenAI的创立基础。

此前,Altman一贯是科技乐观主义者,但他的AI话语迅速转向了末日论调。他在私下和公开场合反复警告:AI技术不应由追求利润的大公司主导。"如果这件事终究要发生,"他写信给Musk,"最好由Google之外的人来做。"

OpenAI由此成立,被注册为非营利组织,董事会负有将人类安全置于公司利益之上的法定职责,甚至高于公司生存本身。

创始人公开声称,AI可能是人类历史上最危险的发明,因此需要一种非同寻常的公司治理结构。这一叙事极具感召力:它成功地将原本分散在谷歌、学术界的顶尖研究人员招募到一家资金匮乏的新组织。

据Sutskever回忆,当时的招募口号是:"你将拯救世界。"

然而,内部矛盾从一开始便暗流涌动。根据Dario Amodei(此后创立Anthropic)积累的超过200页私人笔记——这批文件从未公开披露——Altman在早期便流露出不同信号。

在2019年与微软谈判10亿美元投资期间,Amodei将维护公司章程中"合并与协助"条款(如果另一家公司率先安全开发出AGI,OpenAI将协助而非竞争)列为首要谈判底线,并得到Altman的口头承诺。

但交易临近签署时,Amodei发现合同中已悄然加入一项赋予微软阻止OpenAI任何合并行为的条款。他当场质问Altman,后者起初否认该条款存在,Amodei不得不逐字朗读合同文本,并让另一名同事当面确认。

Amodei后来在笔记中写道:"他的话几乎肯定是谎言"。

"政变"与复辟:五天内的权力戏剧

2023年11月的那个周末,当董事会通过视频电话宣读声明、告知Altman他已不再是OpenAI员工时,他正身处拉斯维加斯观看F1赛车。

消息震动了整个科技界。微软在解雇发生前数分钟才被告知——这家已向OpenAI投入逾130亿美元的战略伙伴措手不及。"我非常震惊,"微软CEO Satya Nadella后来表示。

LinkedIn联合创始人、OpenAI投资人Reid Hoffman随即展开电话调查,试图弄清Altman究竟犯了什么错。"我根本不知道他妈发生了什么,"Hoffman告诉《纽约客》,"我们在找挪用公款的证据,或者性骚扰,但什么都没找到。"

Altman返回旧金山自己的2700万美元豪宅,迅速组建起一个非正式"流亡政府",成员包括Airbnb联合创始人Brian Chesky、投资人Ron Conway及危机公关人士Chris Lehane。他的电话记录显示,他每天通话时间超过12小时。

与此同时,他协同微软CEO Nadella协调口径,并向代理CEO Mira Murati传递了一个明确信号:他的盟友们"正在全力出击",并正在"发掘负面信息"以损害包括她在内的那些曾反对他的人的名誉。(Altman表示不记得有过这样的对话。)

在强大的外部压力下,多数员工联署了要求Altman复职的公开信,Sutskever最终也在信上签字。

董事会被迫妥协,Helen Toner和Tasha McCauley失去了席位,而新加入的两位董事(前哈佛大学校长Lawrence Summers和前Facebook首席技术官Bret Taylor)均是在与Altman深度沟通后才被选定的。

"你能不能这样做:把Bret、Larry Summers、Adam作为董事会,让我担任CEO,然后由Bret负责调查?"Altman如此发短信给Nadella。不到五天,他便复职了。

员工们将这段历史称为"the Blip"(短暂消失),借用漫威电影中的情节:人物消失后重现,本人毫发无损,而世界已然天翻地覆。

那份从未落纸的调查报告

被解雇的董事们将接受独立调查作为离职条件之一。OpenAI聘请了曾主导安然、世通内部调查的律所WilmerHale负责这项"审查"。但据六名接近调查的知情人士称,整个过程似乎被刻意设计为限制透明度。

调查人员起初未与多位关键当事人接触;部分受访员工因担忧匿名性不足而不敢坦诚发言。"他们只关注董事会风波期间的狭窄时间窗口,而非他长期以来的诚信历史,"一名受访员工说。

2024年3月,OpenAI宣布Altman获得清白,但没有发布任何调查报告。公司官网仅挂出约800字的声明,承认存在"信任破裂"。

据知情人士透露,之所以没有书面报告,是因为根本没有写,调查结论仅以口头简报的形式向Summers和Taylor呈报。"审查得出的结论并不是Sam诚实,"一名接近调查的人士说,"但它确定他可以继续担任CEO。"

数位曾在场的前员工和现任员工对这种不公开的做法感到震惊。Altman复职后不久便重新加入了董事会。

从“人类安全优先”的非营利承诺到营利化再资本化

OpenAI最初的设定,是用非营利结构约束商业冲动,董事会对“人类安全优先于公司成功甚至生存”负有义务。但内部记录显示,这一承诺一直在被侵蚀。

2022年12月的一次董事会会议上,Altman向成员们保证,GPT-4的若干功能已通过安全审查委员会批准。Toner要求查阅文件后发现,最具争议的功能——允许用户"微调"模型和将其部署为个人助理——均未获批准。

此外,她还得知微软在印度提前发布了ChatGPT的早期版本,跳过了必要的安全审查,而Altman在与董事会的多次长时间汇报中从未提及此事。

当安全研究员Jan Leike被任命领导"超级对齐团队"时,官方声明承诺该团队将获得公司算力的"20%"。但据四名亲历者陈述,实际分配的算力在1%至2%之间,且"大部分超级对齐算力实际上用的是最老旧、芯片最差的集群"。

Leike向Murati投诉,后者告诉他不要再提这件事,因为"这个承诺从来就不现实"。

2024年,Sutskever和Leike相继离职。Leike在社交媒体上写道:"安全文化和流程已经让位于闪亮的产品。"OpenAI此后陆续解散了超级对齐团队,在最新的美国国税局申报表中,"安全"一词也从公司"最重要业务活动"的描述中消失。

万亿赌局:向专制政权押注AI未来

Altman在商业上最雄心勃勃的赌注,也是外界最感忧虑的——是将AI基础设施建设向中东专制政权延伸。

早在2016年,他便结识了沙特王储Mohammed bin Salman,并私下称其为"朋友"。2018年,记者Jamal Khashoggi被杀一周后,Altman宣布加入沙特主导的未来城市项目Neom顾问委员会,随后在同事强烈反对下才退出。

但据一名政策顾问回忆,Altman随即开始询问是否能以某种方式绕开道义压力继续从沙特获得资金,"问题不是'这是否是坏事',而是'如果我们这么做,会有什么后果?有出口管制问题吗?会有制裁吗?我能不能不被发现?'"

与此并行,他将目光转向阿联酋。阿联酋总统之弟、国家情报总监Sheikh Tahnoon bin Zayed al-Nahyan掌控着约1.5万亿美元的主权财富,他同时运营着国家控股AI集团G42。

Altman与其建立了深度私人关系,在社交媒体上称之为"亲爱的挚友",并曾于2024年受邀登上其价值2.5亿美元的超级游艇"Maryah"号。

2023年,Altman开始秘密推动一项被称为"ChipCo"的计划:由海湾国家出资数百亿美元,在中东建设大规模芯片代工厂和数据中心。"据我的理解,整件事发生时董事会毫不知情,"一位知情董事说。

美国拜登政府对此深感警惕,商务部官员明确告知Altman:"我们不打算在阿联酋建造先进芯片。"

然而,随着特朗普重返白宫,局面彻底改变。就职第一周,Altman便站在白宫罗斯福厅宣布"星际之门"(Stargate)计划——一项旨在在美国境内构建庞大AI基础设施网络、总额达5000亿美元的合资企业。

随后,拜登政府的AI技术出口限制被废除,Altman陪同特朗普出访沙特王室,而沙特随即宣布成立一家国家支持的大型AI公司。与此同时,OpenAI宣布在阿布扎比建设一个面积相当于中央公园七倍、耗电量堪比迈阿密整座城市的数据中心园区。

"我们正在建造门户,通过这些门户我们正在真正地召唤异类,"一名前OpenAI高管说,"Sam在中东又增加了一个门户。这是有史以来最不负责任的事情之一。"

监管与游说:从“欢迎监管”到对安全法案的强硬反击

在公众形象的塑造上,Altman曾长期扮演科技巨头中的异类——他主动呼吁政府监管AI,2023年在美国参议院司法委员会作证时甚至提议设立新的联邦监管机构。

路易斯安那州参议员John Kennedy看起来颇受感动,靠在手上说,也许应该让Altman本人来执行规则。

但与此同时,据《时代》杂志报道,OpenAI在2022至2023年间成功游说削弱了欧盟一项旨在加强对大型AI公司监管的立法。在加州,当一项与Altman此前国会证词条款高度相近的AI安全法案提交立法机构后,OpenAI公开表示反对,并在私下发出威胁。

"在这一年里,我们看到了来自OpenAI的手段越来越狡猾和具有欺骗性的行为,"一名立法助手对《纽约客》说。投资人Conway游说了包括Nancy Pelosi和Gavin Newsom在内的政界领袖,该法案最终在通过议会后被Newsom否决。

今年,一个名为"引领未来"(Leading the Future)的亲AI超级政治行动委员会开始资助反对AI监管候选人。

OpenAI官方表示不会向此类组织捐款,但该委员会的主要捐款人之一是Greg Brockman,承诺捐出5000万美元。同年,Brockman夫妇还向支持特朗普的"MAGA Inc."捐赠了2500万美元。

权力的解剖:顺从他人与操控他人的矛盾统一体

在《纽约客》采访的数十名当事人中,大多数人分享了对Altman某种共同的心理画像。一名董事说:

"他不受真相约束。他有两种几乎从不同时出现在同一个人身上的特质:第一是强烈渴望取悦他人、在每一次互动中被人喜欢;第二是几乎带有反社会性质的、对欺骗他人所带来后果的漠然。"

这位董事不是唯一一个自发使用"反社会"一词的人。Altman在Y Combinator第一届学员中的同期者、被视为技术圈精神遗产的Aaron Swartz,在去世前数年曾向多位友人表达了对Altman的担忧,措辞强烈。

多名微软高级管理人员也在采访中表示,尽管Nadella长期力挺,微软与Altman的关系已变得紧张。其中一人说:

"他误导、歪曲、重新谈判、食言,我认为他有一定的可能——虽然不大但确实存在——最终被人记住为Bernie Madoff或Sam Bankman-Fried级别的骗子。"

对于这些指控,Altman及其支持者的解释是,他的行为不过是"正常的竞争性商业实践",而他的批评者则是科幻式"末日论者",或是嫉妒他成功的失败者。

"他太沉浸于自我信念,"前董事成员Sue Yoon说,"所以他做了一些在现实世界中毫无逻辑的事。但他不活在现实世界里。"

一万亿美元的问题:他是否应该主宰这一切

OpenAI据报道正准备IPO,潜在估值接近1万亿美元。Altman驾驭着人类有史以来增长最快的初创企业之一,其融资规模——最近一轮单轮即超过1200亿美元,为历史最大私募融资规模的四倍。

在可预见的未来,这家公司的决策将影响数以亿计的人的生活:AI何时应当停止,何时应当继续;它应当帮助谁,拒绝服务谁;在战场上,它是否可以在没有人类监督的情况下自主决策。

问题不仅在于Altman是一个道德上有瑕疵的人——任何一个运营过大公司的人都知道,这本身不足为奇。

问题在于:OpenAI的存在理由,自始至终建立在一个前提之上——它与其他公司不同,它的领导者必须具备"非同寻常的诚信",因为他们掌握的是一项可以改变文明的技术。

Sutskever最初对这一使命深信不疑,正是因为这个信念,他拒绝了谷歌的千万美元年薪。

在一次采访中,记者问Altman,运营一家AI公司是否要求"更高的诚信标准"。

这本应是一个容易回答的问题。他迟疑了,然后说,"我认为很多行业都可能对社会产生巨大影响,无论好坏。"片刻后,他补充道:"是的,这需要更高的诚信,我每天都感受到这份责任的重量。"

然而,OpenAI最新的IRS申报表中,"安全"作为公司核心业务的描述已经消失。曾经的招募口号:"你将拯救世界",已被公司内部的新口号所取代:"感受AGI。"

正如Altman曾以近乎哲学的口吻向媒体说的那样,他允许旗下AI模型保留一定程度的"虚构"能力,而非追求百分之百的准确性,因为"那种魔力,是人们最喜欢的东西"。这也许,是理解他本人的最好注脚。▪

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10