“全民公敌”阿莫迪

字母榜
May 06

2026年春天,达里奥·阿莫迪(Dario Amodei)突然变成了硅谷讨厌鬼。

黄仁勋就差直接点名阿莫迪了,猛烈批评那些不断预言AI将大规模消灭工作的CEO是患上了“上帝情结”:一旦成了CEO,就很容易以为自己什么都知道。奥特曼说阿莫迪用“恐惧”做营销,杨立昆干脆说他不懂技术革命如何影响就业。

就连媒体也开始追问:一个不停警告世界末日的AI大佬,为什么自己还不停下?

阿莫迪得罪人,当然不仅仅是因为他道德感太高而情商又太低。

微妙的是,他确实长期相信AI风险,也确实把这种信念变成了Anthropic最锋利的商业武器。

这家从OpenAI出走后成立的公司,已经不再只是一个打着“AI安全”旗号的研究型团队。Claude Code成了企业AI市场最凶猛的产品之一,年化收入跑到数十亿美元级别。更夸张的是,据Business Insider报道,Anthropic在私募二级市场的估值已突破1万亿美元。

当一个人一边站在道德高地上提醒所有人慢一点,一边又在赛场中央下注,而且越下注越大,他就很难不变成靶子。

01

全民公敌

阿莫迪正在成为AI行业里最让人不爽的人。

最新一个开火的人,是黄仁勋。

在一档播客里,黄仁勋把那些动辄预言AI将造成大规模失业、甚至带来人类灭绝风险的科技CEO,称作患上了“上帝情结”。

他的大意是,一旦坐到CEO的位置上,人就很容易开始以为自己什么都懂。可关于AI的公共讨论,应该回到事实,而不是被夸张的末日叙事牵着走。

这番话没有点名,但很难不让人想到阿莫迪。

而这已经不是黄仁勋第一次被阿莫迪的AI风险叙事惹到。

阿莫迪一直支持更严格的芯片出口管制,还专门写过长文呼吁加强限制。今年在达沃斯论坛上,他把向中国出口先进AI芯片,类比成“卖核武器”。

黄仁勋当然不会接受这个说法。

在另一档播客里,黄仁勋被问到这个类比时,直接说这实属“荒唐”。他认为,把AI芯片和核武器相提并论,是一个很差,也不合逻辑的类比。

如果说黄仁勋的反击,来自英伟达和Anthropic在芯片政策上的直接利益冲突,那么OpenAI的攻击就更像是老对手之间的正面交锋。

在一次播客对谈中,奥特曼称Anthropic正在用“恐惧”做营销。

他用了一个颇为刻薄的比喻:这就像有人说,我们造了一颗炸弹,马上要扔到你头上,然后我们可以卖你一个一亿美元的防空洞。

这句话很明显指向Anthropic刚刚发布的Claude Mythos Preview。按照Anthropic自己的说法,这个网络安全模型能力太强,暂时不会对公众开放,而是先放进一个名为“玻璃之翼”的项目里,为合作机构做防御性安全工作。

来自OpenAI的“攻击”还不止这一次,4月13日,The Verge披露了OpenAI首席营收官丹妮丝·德雷瑟(Denise Dresser)发给员工的一份四页内部备忘录。备忘录主题是如何赢下企业AI市场,但其中专门拿出一段讨论Anthropic,几乎是在逐条拆对手的台。

其中写道,Anthropic的故事建立在“恐惧、限制,以及少数精英应该控制AI的观念”之上。

她还说,Anthropic过度依赖代码场景,算力储备不足,并质疑其年化收入说法,称Anthropic把与亚马逊谷歌的收入分成按总额计入,导致其300亿美元年化收入被高估了大约80亿美元。

阿莫迪和奥特曼是老冤家,OpenAI和Anthropic是直接竞争对手;黄仁勋的芯片生意,也直接被阿莫迪的政策主张波及。他们的反击看起来都有迹可循。

但这还没完。

杨立昆(Yann LeCun)也在X上公开怼过阿莫迪。这一次,争议来自AI对就业的影响。

2025年,阿莫迪接受Axios采访时说,AI可能在未来一到五年内消灭一半初级白领岗位,并把失业率推高到10%到20%。他还说,AI公司和监管机构不能继续粉饰、不能把即将到来的冲击说得太轻。

针对阿莫迪关于就业的判断,杨立昆在X上说:“达里奥是错的”“他对技术革命如何影响劳动力市场一无所知”。他甚至说,这类问题应该多听经济学家的,而不是AI圈的任何人的,包括杨立昆自己在内。

就连舆论也开始出现一些质疑的声音。

仅就来自知名媒体的评论举例:《泰晤士报》质疑警告世界末日的AI大佬为什么自己不停下来,TechCrunch则点出,Anthropic限制Mythos开放,表面是保护互联网安全,但这种选择性开放也可能帮助它锁住大企业客户、阻止小公司通过蒸馏复制能力,从而保护自己的商业利益。

很明显,阿莫迪带领着Anthropic,占领了某种道德高地。但越是站在高地上,就越成为了被攻击的靶子。

问题在于,仅仅是因为阿莫迪太有原则、太坚持“安全”,不惜得罪人,所以才被反过来攻击吗?

阿莫迪越是用力地当“道德标兵”,他身上的一个道德悖论就越刺眼——他站在赛场中央,一边下注,一边提醒所有人这场比赛可能有毒。

这实在太别扭了。

02

“安全大王”的来时路

备忘录里,OpenAI首席营收官丹妮丝提到了一个词:“精英”。

这确实是阿莫迪身上最醒目的标签之一。

他那场站在道德高地上的对决,也几乎成了他声望的巅峰——面对美国战争部的要求,Anthropic拒绝放宽Claude的使用边界,坚持不允许其被用于大规模监控,也不允许用于没有人类参与决策的完全自主武器。

阿莫迪当时说,他们“出于良心不能答应”这个要求。那一刻,公众的欢呼里,多少带着一种久违的释放,硅谷精英终于又一次站出来,对更大的权力说了“不”。

要搞懂这个“安全大王”从何而来,还是得往回看他的来路。

阿莫迪1983年出生在旧金山。父亲是意大利裔皮革匠,来自托斯卡纳,长期受健康问题困扰,在阿莫迪年轻时去世;母亲是出生于芝加哥的犹太裔美国人,曾做图书馆项目经理。

阿莫迪从小就是标准的理科尖子生。他读的是旧金山最有名的公立精英高中之一,2000年入选美国物理奥林匹克队。上大学后,他先进了加州理工学院——也就是美国最顶尖的理工科名校之一,后来转到斯坦福,拿到物理学本科,最后又去普林斯顿读完了生物物理博士。

他是物理、神经科学、AI研究多维融合的技术型人物,这也决定了他的复杂视角。

2014年,吴恩达把阿莫迪招进百度在硅谷的人工智能实验室,参与语音识别系统的研究。后来他成为Deep Speech 2论文作者之一,这套系统主打端到端语音识别,覆盖英语和普通话,也试图用更大规模的数据、算力和训练重走传统语音识别流程。也就是在这段时间里,阿莫迪开始形成对“规模化”的早期直觉。他后来在访谈中回忆,当时发现,当模型更大、数据更多、训练时间更长时,效果会持续变好。对他来说,后来贯穿GPT、Claude这一代大模型的Scaling信仰,在百度做语音识别时就已经埋下了伏笔。

丹妮拉·阿莫迪(Daniela Amodei)也是一个重要角色。她同样从OpenAI出走,兄妹俩共同创办Anthropic。

兄妹俩形成双核结构。阿莫迪更像技术路线和安全叙事的代表,丹妮拉则更多承担公司运营、组织建设和商业推进。Anthropic今天这种奇特气质——一边像安全研究机构,一边又是高速融资、高速扩张的AI公司——很大程度上就来自这组搭档。

这种家族纽带也给Anthropic带来一种特别的稳定感,使这家公司更像一个从旧组织里分裂出来的小团体,带着强烈的自我认同,认为自己要用另一种方式做AI。

2020年底,OpenAI发布了一篇非常客气的组织更新,宣布时任研究副总裁阿莫迪即将离开。文章感谢他近五年的贡献,提到他参与GPT-2、GPT-3,并与苏茨克维(Ilya Sutskever)等人共同设定研究方向。

最微妙的是,OpenAI还写道,阿莫迪和几位同事计划开启一个新项目,这个项目“可能会更少关注产品开发,更多关注研究”。而其他大部分篇幅,用来表明OpenAI自己在安全领域的决心。

多年后,当Anthropic和OpenAI的矛盾公开化之后,人们回溯当年的友好“分手”,不难看出双方对于AI能力增长和安全边界应该如何排序,早已存在分歧。

几个月后,Anthropic成立。此后,安全从阿莫迪的个人立场,慢慢变成了这家公司的骨架。

它有RSP,也就是《负责任扩展政策》(Responsible Scaling Policy),用ASL等级给不同能力阶段的模型设置风险要求,有点像AI版的生物安全等级;它通过一套“宪法”原则引导模型行为;它还持续投入可解释性研究,试图打开模型黑箱。

阿莫迪当然在利用“安全”,但前提是,他也确实长期相信安全。从OpenAI出走,到创立Anthropic,再到RSP、AI“宪法”、可解释性、模型风险分级、国防合同边界,他的行为颇具长期一致性。

这也是阿莫迪复杂的地方。

他身上有一种很强的精英自信——我看见了更大的风险,所以我有资格提醒所有人慢一点、严一点、怕一点。可同样是这种自信,让他显得居高临下。

而当阿莫迪开始经营一家商业公司,当“道德”遇上商业,精妙的平衡更加难以维持。

03

当“安全”变成公司主线

“安全”既是Anthropic的生意,也是筛选机制。

Anthropic的特殊之处在于,它从一开始就是一群人从OpenAI出走后组建的新组织,出走的理由里有技术路线,也有安全理念,还有对“谁应该定义AI未来”的分歧。

所以文化在Anthropic显得格外重要,更像一套操作系统。

阿莫迪是一个带着研究员气质的组织设计者。他曾在访谈里说,自己大概三分之一,甚至40%的时间,都花在确保Anthropic的文化是好的上。

Anthropic表面上总在讲谨慎、克制、边界,但内部并不是一种温吞水文化。相反,Anthropic公司内部有一种类似个人公开笔记本的Slack频道,员工会在里面写自己的想法、工作进展,甚至直接和阿莫迪展开辩论。

可以想见,不管是Anthropic的准入门槛还是内部文化的不断塑造与碰撞,都形成了对人才的某种筛选机制。

过去一年,Meta为了补强AI团队,到处挥舞支票本挖人。AI行业的人才价格被抬到夸张程度,顶尖研究员和工程师几乎变成了自由市场上的超级球星。面对这种挖角,一些公司本能地“跟价”,至少是明确地表示要提高员工薪酬,先把人留下来再说。

阿莫迪没有这么做。他公开解释过,Anthropic不会因为外部公司给某个人开了天价offer,就立刻打破自己的薪酬原则。他说,如果扎克伯格像扔飞镖一样随机击中某个人的名字,那并不意味着这个人就应该比旁边同样优秀的同事多拿十倍。

更有意思的是,阿莫迪表示,有些Anthropic员工面对Meta的挖角,甚至连扎克伯格都不愿意聊。这句话里当然有炫耀的成分。但它真正想传递的是Anthropic员工的“共识”是存在且牢固的。

阿莫迪必须让员工相信,Anthropic不是另一家只想跑得更快的AI公司;同时,他又必须带着这家公司真的跑得足够快。否则,安全叙事再漂亮,也只会变成赛场边上的道德评论。

“安全”作为生意,成绩斐然。

Anthropic从一开始就天然吸引那些对可靠性、可控性要求更高的客户。Claude刚推出时就强调可靠性、可预测性和可引导性,早期合作伙伴就是Notion、Quora、DuckDuckGo、Juni Learning这类知识生产、搜索、教育和工作流工具。

Anthropic卖的不是“最便宜的模型”。企业、政府、代码、金融、医疗、教育、公共部门——这些客户更在意稳定性、合规性、安全边界和长期责任。价格上也能看出来,Claude并不是低价路线。Claude Opus 4.7的价格是每百万输入tokens 5美元、输出25美元;Claude Sonnet 4.6是输入3美元、输出15美元。相比之下,xAI的Grok 4.20是输入2美元、输出6美元,明显更激进;OpenAI的GPT-5.5则是输入5美元、输出30美元,和Claude Opus处在同一高价区间。

Reuters此前也报道,Anthropic拥有超过30万商业和企业客户,这些客户贡献约80%的收入。企业客户按用量付费,留存更稳定,扩张空间也更大,一旦进入代码、办公流、云平台和政府系统,收入就不是普通订阅产品能比的。

与之相比,OpenAI靠ChatGPT在C端打出了最大的声量,也确实把大众用户教育到了前所未有的规模;但C端用户多,不等于收入结构最好。

OpenAI自己最新说法是,企业收入已经超过总收入的40%,并希望到2026年底追平消费端。换句话说,即便是OpenAI,也正在拼命往企业市场努力。

Anthropic和美国战争部DoW的合作更是典型例证,很长一段时间里,Anthropic都是DoW在“机密领域”唯一合作的AI公司。Claude被用于情报分析、建模与仿真、作战规划、网络行动等任务。

顺着这个思路,回看Anthropic与DoW之间的激烈“斗争”,足见阿莫迪将安全作为生意的功力——通过对“大规模监控”“自主武器”底线的强调,即便丢了与DoW之间的合作,却让Anthropic的公众知名度与“可靠度”更上一个台阶,在资本市场获得了前所未有的青睐。

Anthropic的年化收入从2025年底的90亿美元,冲到2026年4月的300亿美元量级;今年2月,它以3800亿美元估值完成300亿美元融资,随后Google又计划最高向其投入400亿美元。更有报道指出,其在二级市场的估值已经达到了1.1万亿美元的规模。

安全听起来像一种克制,但在Anthropic它最后变成了一种更高级的商业语言。

但这套治理术当然有它危险的一面。

当一家公司把“安全”变成组织信仰,它就会天然获得一种道德优越感,也更容易把竞争对手衬托成不负责任的人,把商业选择包装成价值选择。

这也是为什么Anthropic越成功,阿莫迪越让人不舒服。

04

“安全”的两面

如果仅仅将阿莫迪看作一个因为有理想有底线但情商低、因此总是说大实话得罪人的“理工男”,未免有点天真。

《华尔街日报》曾有一篇文章,回溯阿莫迪和奥特曼之间的10年恩怨。

阿莫迪在OpenAI的故事远不是一句“安全理念分歧”能解释。

2018年,马斯克退出后,阿莫迪同意留下的条件是布罗克曼(联创之一)和苏茨克维不得掌权——他先谈的是权力分配,而非技术路线。

随后在关键的模型项目里,他和妹妹丹妮拉联手,把想加入的布罗克曼挡在门外,理由之一是某位核心研究员“不想与之共事”。这位研究员事后形容自己被高管当成“代理人武器”,可见阿莫迪非常懂得借人结盟。

随着GPT-2/3走红,他对功劳归属和曝光度愈发敏感:不满布罗克曼在播客里“抢风头”,发现奥特曼和布罗克曼准备去见奥巴马却没带自己,更是当场发火。

次年他要求升任研究副总裁,奥特曼同意,并在董事会邮件中附带一句“阿莫迪承诺不再贬低他不认可的项目”,俨然一项停火条款。

这些细节说明,安全是阿莫迪的信条,也是一把锋利的组织武器。他会谈条件、争项目、抢夺话语权,把“风险”话术用来界定谁能留在核心。

最终离开OpenAI创办Anthropic,与其说是理想出走,不如说是内部夺权失利后,将战场外移。

当他掌舵Anthropic之后,情况变得更加复杂。Anthropic不再是研究室里的理想实验场,而是一艘高速增长的商业战舰。这个时候,安全就从纯原则,变成了实打实的产品卖点。

Anthropic越是高调强调AI风险,越能凸显自己的存在必要;越是点名别人跑得太快,越能把自己包装成企业、政府和监管者最可靠的伙伴。

它的叙事天然带着一种道德比较,即选Claude,不只是挑了个模型,也是在选择一条更负责、更可控的路线。

对竞争对手来说,这就很烦人了。你卖产品也就罢了,还顺手把别人衬得像不负责任的赌徒。安全成了差异化护城河,也成了营销利器。企业客户愿意为“安心”多付钱,政府部门也更容易把敏感项目交给“最安全”的那一家。

在这个过程中,安全也同时变成了一种政治筹码。

Axios报道,2026年第一季度,Anthropic联邦游说支出达到160万美元,超过OpenAI的100万美元,也创下自身最高纪录;此前它还宣布向一个主打AI透明度和安全护栏的两党倡议组织投入2000万美元,并计划扩充政策团队、在华盛顿设立长期办公室。

说白了,阿莫迪已经在争夺AI时代的游戏规则。

阿莫迪的复杂性,正在于这两件事可能同时成立:他确实相信AI安全,也确实把AI安全变成了Anthropic最锋利的商业武器。安全既是他的信仰,也是他的权力杠杆。

原则和利益并非简单对立,而是互相喂养、互相强化。正是这种真假交织的状态,才让他既被捧为“安全大王”,又被一些人视为精明的操盘手。

Anthropic越会解释风险,越有机会定义风险;越有机会定义风险,越能把自己放进AI时代的规则中心。

这是属于阿莫迪的“安全魔法”,而“全民公敌”,就是玩魔法的必备副作用。

也许他甘之如饴。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10