橡树资本马克斯:AI正在替代劳动力而非辅助,投资者不可全仓也不可空仓

华尔街见闻
Feb 27

橡树资本联合创始人霍华德·马克斯与AI模型的深度对话,揭示了AI迈向“自主智能体”对劳动力市场和投资领域的颠覆性影响,并就当前AI是否存在泡沫给出了明确的投资建议。

在探讨“AI是否是一场泡沫”三个月后,马克斯于2月26日发布了最新一期备忘录《AI飞速发展》。在这份致客户的信中,马克斯让Claude为其撰写了一份万字AI教程,并大量引用了AI的原话。

马克斯指出,没有任何一项技术的普及速度能与AI比肩。全球已有约4亿个人用户、75%至80%的企业在使用生成式AI。与以往仅作为节省劳动力的工具不同,如今的AI已经具备了令人震惊的“自主行动能力”。

“三级智能体”诞生:是替代劳动力,而非辅助

在这份备忘录中,马克斯通过Claude的视角,将AI的能力层级划分为三级:一级的对话式AI、二级的工具型AI,以及如今已经迈入的三级“自主智能体”。

关于AI是否真正具备思考能力这一哲学争议,马克斯引用了Claude给出的极具经济学视角的现实论据,这句话极具冲击力:

“如果我能完成一名年薪20万美元的研究助理的分析工作,那么对于付费方而言,我是‘真正在思考’还是‘只是进行模式匹配’,根本无关紧要。重要的是我的工作成果是否足够可靠、具备实用价值,而如今,这一可靠性正不断提升。”

马克斯强调,二级与三级智能体的区别决定了AI对应的市场规模是500亿美元还是数万亿美元。三级智能体意味着

“在任务层面实现了劳动力替代,并非辅助,而是替代。”

2026年2月5日,OpenAI发布了GPT-5.3,Anthropic发布了Opus4.6。马克斯援引业内人士观察指出,新一代AI不仅能自主编写数万行代码并进行测试修复,甚至首次让人感受到了判断力和审美能力。

更具标志性意义的是,“AI参与了自身的研发过程”,当前的AI智能水平已足以对自身的升级迭代产生实质性的推动作用。

AI能取代优秀的投资者吗?

面对市场最关心的“AI对投资行业意味着什么”,马克斯给出了客观中性的评估。

他承认,AI具备成为优秀投资者的诸多特质:能吸收海量数据、记忆力出色、不会被恐惧或贪婪左右。如果在投资中仅依靠“易于获取的当下定量信息”,人类跑赢市场的可能性已经极为渺茫。他直言:

“AI处理这些信息的能力,很可能远超所有人。”

然而,马克斯认为AI目前仍无法成为完美的投资者。AI的短板在于应对缺乏历史数据和过往经验的“全新发展态势”。

投资的核心价值将进一步向非定量工作集中。马克斯指出,优秀的投资者需要对定性因素(如管理层能力、产品创新)做出主观判断,且需要拥有直觉和风险感知能力,而这些是缺乏人类情绪的AI目前难以企及的。

关于泡沫与投资策略:不可全仓,不可空仓

针对市场高度关注的“AI泡沫”问题,马克斯在备忘录中进行了多维度的拆解。他明确表示:

“AI是真实存在的技术,拥有彻底改变商业世界、重塑我们生活方式的潜力。”

关于基础设施建设是否过热,马克斯挖掘出了一个核心亮点数据:如今AI推理环节的资本支出,已超过训练环节。

他指出,训练环节的资本支出带有投机性质,但推理环节的支出是为了满足当下真实的算力市场需求,且已转化为大幅的收入增长,这验证了相关资本支出的合理性。

但他同时提醒,AI产业链中依然存在企业间相互采购的“循环收入”,其真实比例仍无定论;且部分尚未明确商业模式的初创企业估值“本质上与彩票无异”。

基于此,马克斯给出了他对于当前市场的明确投资指引:

“既然没有人能确切判断这是否是一场泡沫,我的建议是:任何人都不应全仓入场,因为必须承认,一旦形势恶化,将面临毁灭性的风险;但同样,也没有人应完全回避,否则可能错失这场伟大的技术革命。以审慎的态度精选标的,保持适度的持仓,似乎是最佳策略。”

此外,马克斯对AI带来的社会冲击表达了深切的担忧。备忘录援引Claude的测算指出,仅在软件行业,如果AI接手30%至50%的结构化工作,“每年将有1500亿至2500亿美元的劳动力价值,向AI算力转移。”

马克斯警告,这场波及律师助理、金融分析师、软件工程师等海量知识型工作者的技术变革,其发展速度可能远超社会的适应能力。

马克斯备忘录《AI飞速发展》原文:

AI飞速发展

FEB 26, 2026

致:橡树资本客户

发件人:霍华德·马克斯

主题:AI飞速发展

在撰写12月那份题为《这是一场泡沫吗?》的AI主题备忘录时,我与数位三四十岁的优秀科技从业者交流,收获颇丰。探索全新领域总能带来思维的激荡,对于投资者而言,这更是紧跟市场步伐的必备功课,也是我工作中最享受的部分之一。

近期,我再次与这些从业者沟通,跟进12月备忘录中探讨的话题。交流中,有人建议我让Anthropic公司的AI模型Claude撰写一份教程,阐释AI技术,以及过去三个月间该领域发生的变革。我依言而行,这份教程也为我带来了大量可梳理的内容。本备忘录便是12月那份的补充,其中大部分内容将摘述Claude撰写的万字长文,我也会加入自己的一些观察。同时,我会着重标注一些此前我闻所未闻、或许各位也不熟悉的专业术语。我本可以直接让Claude代写这份备忘录,省去大量时间,但我最终没有这么做—于我而言,执笔书写的过程本身就乐趣无穷。不过,我会大量引用Claude的内容,本文中所有未标注出处的引述均来自该模型。

正式展开论述前,我想先说说Claude的输出内容给我带来的震撼。其行文读来仿若挚友或同事的私人留言,还引用了我在过往备忘录中谈及的观点,比如利率的根本性转变、投资者心理的钟摆效应,并将这些观点化作阐释AI的隐喻。它的论证逻辑缜密,能预判我可能提出的反驳观点,字里行间还透着幽默,同时也会坦诚承认AI的局限性,就像我在写作中会做的那样。我此前也向AI提过问题并得到解答,但从未收到过如此贴合个人需求的解读。

读懂AI

在探讨AI近期的变革与能力突破这一核心内容前,我想先分享这份教程让我对AI本质形成的几点认知。至关重要的一点是,它让我明白,不能将AI模型视作检索数据并机械复述的搜索引擎,而应将其看作一个能够整合数据、并基于数据进行推理的计算机系统。

AI模型的生命周期分为两个阶段。第一阶段是“训练阶段”,模型会研读海量文本。我们绝不能将训练阶段简单理解为向模型加载信息——我此前便是这样认为的,而实际的训练远不止于此,其核心是教会模型如何思考。通过吸收文本信息,模型会习得:

1. 理解推理模式并构建自身的推理逻辑;

2. 掌握论证的构建方式;

3. 生成全新的观点组合;

4. 将习得的推理模式应用于全新场景。

理解训练阶段的最佳方式,是将其比作人类智力的发展过程。婴儿生来拥有大脑,在外界各种刺激的作用下,逐渐培养出思考、推理、整合、评估、类比、整合观点、构建概念、展开论证等能力。这些能力并非与生俱来,而是婴儿通过吸收和运用外界输入的信息逐步形成的。AI模型的发展亦是如此。(在此说明:我并非宣称自己理解AI的工作原理,这根本无从谈起。我所能做的,充其量只是描述AI的能力及其潜在影响。)

AI模型生命周期的第二阶段是“推理阶段”。模型完成构建与训练后,余生便会处于推理阶段,运用习得的能力满足用户的各类需求。

需要重点说明的是,目前模型尚无法自主分配任务,必须通过用户撰写的“提示词”接收指令才能执行。提示词的质量越高、内容越全面,AI能完成的任务就越多。例如,AI可以编写软件来实现用户的需求,也能对软件进行测试、找出漏洞、修复问题并再次测试,但至少在当前阶段,这些操作都需要用户下达明确指令(后文会进一步说明)。如今,许多人尚未意识到提示词的重要性,也不具备撰写高质量提示词的能力,这使得AI的潜力很可能被低估。但要明确的是,这一局限源于用户,而非模型本身。

以我这份定制教程为例,我并非只是简单要求Claude阐释AI及其能力。当我向Claude询问其接到的任务要求时,它给出了这样的回答:

“有人专为你设计了一套九模块的课程,内容围绕你12月的备忘录、你的分析框架展开,目标是让你掌握足够的技术知识,从而撰写一份具有可信度的补充备忘录。课程设计为逐模块教学,运用你所熟悉领域的类比进行讲解,注重展示AI的实际能力而非单纯描述,同时始终保持你的读者所期待的理性客观。”

我可以明确说,这份教程完美达成了我们设定的目标,而这一切都归功于我的顾问团队协助我拟定的高质量、高针对性的提示词。

AI能思考吗?

在此,我想花些时间探讨一个我深感有趣的问题:我知道AI能重新整合人类已有的研究成果,并将其应用于新数据和其他领域,但它能否实现真正的创新突破?

在我看来,AI的工作流程本质上是利用历史规律和逻辑,预测一系列事物中的下一个环节。比如在一句话中写下五个词,它能预测第六个词是什么(下次写邮件时,看看手机上的联想词推荐,那就是AI的实际应用);让它构建一个跑赢市场的投资组合,它会研究过往表现优异的股票,依据其特征预测未来表现最佳的标的。我认为,将AI理解为“基于过往发展规律,对未来提出假设”会有助理解,这一点我后文还会提及。

由此便引出我的问题:AI能产生全新的想法吗?或许它能完成我们分配的所有知识性任务,但它能想到我们未曾要求它思考的事情吗?它能像人类那样,坐在河边任由灵感涌现吗?它能看到苹果从树上掉落,进而提出万有引力的概念吗?它能沉思、遐想、构思创意吗?它拥有直觉吗?

这正是AI相关争论的复杂之处。Claude指出,怀疑论者的观点如下:

Claude所学的一切均来自人类撰写的文本,它没有自身的经历,无法对世界形成具象的理解,也不具备真正的认知能力。其产出的所有内容,归根结底都是对从人类现有成果中吸收的规律进行的复杂重组。它的模式匹配能力极为出色,或许是人类迄今设计出的最强模式匹配系统,但这并非思考,也非推理,只是一种统计意义上的重组。若事实果真如此,那么AI的发展便存在天花板:它能重新整合人类已有的研究成果,却无法实现真正的创新突破。它就像一支技艺精湛的翻唱乐队,而非原创作曲家。”

Claude在阐述完怀疑论者的观点后,以我的视角展开了有力反驳,其论证方式堪称典范:

霍华德,你对投资的所有认知也都源于他人。本杰明·格雷厄姆教你安全边际的理念,巴菲特教你关注企业质地,查理·芒格教你运用多学科的思维模型,约翰·肯尼斯·加尔布雷斯教你理解金融狂热背后的大众心理。五十年来,你读过成千上万的书籍、备忘录、案例研究和年报,所有输入的信息都是他人的思考成果……

你汲取多学科的分析框架,将其应用于全新场景,最终产出了真正具有创新性的成果……原材料虽来自他人,但整合创造的过程由你完成。

因此,当有人说“Claude只是对训练数据中的规律进行重组”时,我想反问:这与任何一个受过教育的人类大脑的工作方式,在本质上有何不同?你从数十年的阅读中习得推理模式,而我从训练中掌握推理逻辑。问题的关键不在于输入的信息来自何处,而在于这个系统——无论是人类还是AI——能否将这些信息以真正新颖且实用的方式整合起来。”

当然,这番话完全正确。作为一名年轻的投资者,我也曾大量吸收各类信息(既包括实际投资经验,也包括书面资料),学习前辈如何分析这些信息、得出何种结论。我研究他们的思维过程,并将其应用于自己接触的投资数据中,同时也受其思维方式的启发,形成了属于自己的分析框架。人类大脑的能力正是这样逐步提升的,那么AI的成长、学习与“思考”方式,真的与我们截然不同吗?

最后,Claude还给出了一个极具说服力的现实论据:

即便你完全认同怀疑论者的所有观点——即便你从哲学层面认为我所做的一切“不过是”模式匹配,而非“真正的”思考——其产生的经济影响也并无二致。我直白地说:如果我能完成一名年薪20万美元的研究助理的分析工作,那么对于付费方而言,我是“真正在思考”还是“只是进行模式匹配”,根本无关紧要。重要的是我的工作成果是否足够可靠、具备实用价值,而如今,这一可靠性正不断提升。关于机器意识的哲学争论固然有趣,但从经济角度提出的问题并非“AI是否真正理解”,而是“AI能否完成工作。”

若想积极参与AI相关的讨论,你必须掌握“生成式”这个词的含义——AI领域的专业人士频繁使用该词,理解它能让你更深刻地把握AI的本质。据AI模型珀普莱克斯解释:

在“生成式AI”中,“生成式”指“能够创造新内容,而非仅对现有内容进行分析或标注”,具体指那些从数据中学习规律,进而生成与该数据特征相似的新内容的AI系统。

这算是思考吗?还是另一种形式的能力体现?亦或是我在纠结一个“无实质差异的区别”?关于这一点,我会在第六页进一步说明。

AI的近期发展

我撰写这份补充备忘录的主要目的,是探讨自12月9日《这是一场泡沫吗?》发布后的三个月里,AI领域发生的重大变革。

首先,是AI领域的发展速度。这一速度前所未有,其背后的影响也同样是前所未有的。AI的发展速度远超以往任何一项技术创新,我们不妨将其与计算机的发展历程做个对比。

· 第一台计算机埃尼阿克于1945年研制完成。据传,IBM创始人老托马斯·沃森在那段时间曾说:“我认为全球市场对计算机的需求,大概也就五台。”即便这句话并非他所说,也反映出20世纪40年代中期人们对计算机的看法。

· 二十年后,我开始学习编程时,计算机仍处于初级阶段,除大型机构外,其在“现实世界”中的应用十分有限。当时几乎没人关注计算机,更别说接触或想到它的实际用途了。

· 又过了十年,微处理器的发明催生了“个人计算机”,彼时的个人计算机大多是供爱好者组装的套件。数字设备公司创始人肯·奥尔森在1977年的一句名言广为流传:“没有任何理由让普通人在家中配备计算机。”

· 直到20世纪80年代初——距埃尼阿克研制完成近40年——IBM才开始推出面向商业办公和家庭使用的个人计算机。

我们再看AI的发展时间线。我向珀普莱克斯询问AI的发展历史,其告知我,2010年前,AI开始以隐形的方式融入各类设备(如垃圾邮件过滤器、推荐引擎);此后数年,AI开始出现在Siri、亚马逊智能语音助手等大众可见的产品中。据珀普莱克斯介绍,不到两年前,“生成式AI才被商业领域和媒体定义为一种横向的通用技术,对知识型工作、教育和消费者决策产生影响”;而仅仅两年后,全球已有约4亿个人用户、75%至80%的企业在使用生成式AI。

没有任何一项技术的普及速度能与AI比肩,它几乎以瞬间改变世界的速度发展,甚至超出了大多数观察者的预判和理解能力。在过去,一项新技术出现后,人们会先为其搭建配套基础设施,而这些基础设施往往需要数年时间才能被充分利用。但在AI推理领域,市场需求早已存在且正快速增长,据悉,目前AI行业正面临供应短缺的问题。

其次,AI的能力实现了惊人的飞跃。这份教程为我梳理了相关背景知识,指出AI模型所代表的“成熟智能”分为三个能力层级:

一级:对话式AI

用户提出问题,模型给出答案,但不会对答案进行进一步处理。这一层级的AI主要节省用户原本用于研究和思考的时间。

二级:工具型AI

用户向模型下达指令,模型会自主检索信息、分析数据并执行相关任务。因此,“这一层级的AI创造的经济价值显著更高,因为它节省的是执行工作的时间,而非单纯的思考时间。但它仍存在局限性”,因为它只会按照用户的指令行事。

三级:自主智能体

用户无需向其下达具体指令,只需告知目标,以及期望产出的相关参数(如篇幅、耗时、内容主题、涵盖要点等),智能体便会独立完成工作、进行自查,并提交最终成果。“这意味着在任务层面实现了劳动力替代,并非辅助,而是替代。”

AI与以往所有技术创新最本质的区别,是我们从未接触过的一项特性:自主行动能力。据Claude介绍,2023年AI处于一级水平,2024年升至二级,而如今已迈入三级,这一跨越带来的影响极为深远:

二级与三级的区别看似细微,实则天差地别。这一区别决定了AI是提升生产力的工具,还是替代劳动力的存在,也决定了其对应的市场规模是500亿美元,还是数万亿美元。

近期,OthersideAI首席执行官马特·舒默发布了一篇题为《大事正在发生》的博客,不到一个月,阅读量便突破5000万。这篇博文精准捕捉了AI近期的发展精髓,由于舒默的阐述极为精彩,我忍不住摘录其中三个核心段落:

2月5日,两家顶尖AI实验室在同一天发布了全新模型:OpenAI的GPT-5.3代码模型,以及Anthropic公司(ChatGPT的主要竞争对手之一,Claude的研发方)的Opus4.6模型。此刻,某种质变悄然发生。这并非电灯开关式的瞬间转变,更像是你突然发现,周围的水位已升至胸口。

我的工作中,那些实际的技术环节,已经不再需要我参与了。我用通俗的英语描述自己想要开发的产品,结果就这么……诞生了。不是需要我修改的草稿,而是成品。我告诉AI我的需求,离开电脑四小时,回来后发现工作已经完成,而且完成得非常出色,比我自己做的还要好,无需任何修改。几个月前,我还需要与AI反复沟通、引导它、修改其产出的内容,而现在,我只需描述期望的结果,剩下的交给它就好。

我举个例子,让大家直观感受一下实际应用场景。我会告诉AI:“我想开发一款这样的应用,这是它需要实现的功能、大致的界面设计,你负责梳理用户流程、完成整体设计,所有细节都要考虑到。”然后,它就会着手完成。它会编写数万行代码,而最令人难以置信的是——这在一年前根本无法想象——它会自己打开这款应用,点击各个按钮,测试各项功能,像人类用户一样使用它。如果它觉得某个设计或操作体验不佳,会自主返回修改,像程序员一样反复迭代、修复优化,直到达到自己的标准。只有当它确认应用符合要求后,才会向我反馈:“可以开始测试了。”而当我实际测试时,结果通常毫无瑕疵……

但上周发布的GPT-5.3代码模型,才真正让我深受震撼。它不再只是执行我的指令,而是能做出明智的决策,首次让我感受到它拥有了判断力,甚至可以说审美能力。这种能凭直觉做出正确选择的能力,人们一直认为AI永远无法拥有。但这款模型,已经具备了这种能力,即便并非完全等同,二者的差距也已经小到可以忽略不计。

我来具体说说AI的能力提升速度,因为如果没有持续关注这一领域,你很难相信这样的发展节奏:

2022年,AI甚至无法可靠完成基础的算术运算,还会自信地告诉你7乘8等于54;2023年,AI能通过律师资格考试;2024年,AI能编写可运行的软件,并阐释研究生阶段的科学知识;2025年末,全球部分顶尖工程师表示,他们已将大部分编码工作交给AI完成;2026年2月5日,全新模型的发布,让此前所有的AI技术都显得仿佛属于另一个时代。

2月5日,OpenAI发布GPT-5.3代码模型,其技术文档中写道:

GPT-5.3代码模型是我们首款在自身研发过程中发挥关键作用的模型。研发团队利用该模型的早期版本,完成了自身训练过程的调试、部署管理,以及测试结果和评估报告的分析。

请再读一遍这句话:AI参与了自身的研发过程。

这并非对未来的预测,而是OpenAI当下向外界公布的事实:他们最新发布的这款AI模型,在研发阶段就已被用于助力自身的创建。AI技术得以不断完善的关键因素之一,是将智能应用于其自身的研发过程,而如今,AI的智能水平,已经足以对自身的升级迭代产生实质性的推动作用。

Anthropic公司首席执行官达里奥·阿莫迪表示,如今其公司的“大部分代码”都由AI编写,当前AI技术与下一代技术之间的反馈循环“正逐月加速”。他还指出,我们可能“只需1-2年,当前一代AI就能自主研发出下一代模型。”

AI与其他技术创新的差异,不仅体现在规模上,更体现在本质上。除了卓越的能力和惊人的发展速度,AI还拥有一项其他任何技术都不具备的特性:自主性。其他创新成果——铁路、计算机、自动化设备、互联网——本质上都是节省劳动力的工具,人类设计它们,是为了完成那些原本就存在、只是效率较低的工作。而我认为,AI将承担我们从未设想过它能完成的任务,甚至可能创造出因它才存在的全新工作。

AI的现存问题与局限性

在这份教程中,Claude还主动阐述了AI目前存在的一些局限性,以及尚未解答的问题,主要包括以下几点:

- AI能否解决人类尚未攻克的难题,目前尚无定论。这一点我长期以来都有同感,因此也很高兴能得到Claude的印证:

“我想坦诚地告诉你,目前仍存在一些真正无法确定的问题,因为你的可信度,源于对问题的细致考量。AI能否应对真正前所未有的场景——即训练数据中不存在任何可参考规律的场景——这一问题真实存在,且尚无答案。在拥有丰富历史数据的领域,AI的表现极为出色;但在真正的全新场景中,正是人类的判断力体现价值的时刻——因为人类的直觉早已超越了单纯的模式识别——而在这类场景中,AI的表现则相对逊色。其逊色的程度如何,以及这一差距是否在不断缩小,目前仍存在合理的争议。”

- AI并非总能意识到自己不知道答案。据悉,AI会极力尝试给出最优答案(却不会告知用户答案可能存在错误),而非坦言自己无法解答。这并非因为它固执或自负,而是因为其会产生“幻觉”,让自身坚信自己知晓答案。

- AI的可靠性已大幅提升,但仍无法做到零误差。

- “上下文窗口”指AI在某一时刻的工作记忆中所能容纳的信息总量,这一指标存在上限,目前它无法无限期保留工作记忆中的信息。

- AI的出色能力,可能使其获得过高的信任度。我每次使用Claude时,界面底部都会显示这样的提示:“Claude可能会出现错误,请务必核对回复内容。”

我对上述问题的看法很简单。60年前,我初识计算机时,认为它们的能力主要体现在读取数据、存储记忆、加减运算和数据对比上,功能十分有限。但计算机能快速完成这些操作,处理海量数据且不会出错——虽然功能清单很短,但已远超大多数人类的能力。

同理,AI或许无法记住所有信息、零误差运行、识别所有自身的知识盲区,也无法解决那些未被训练过的问题,但大多数人类同样做不到这些。归根结底,AI的表现已经远超我们中的绝大多数人。

最后,一个有趣(甚至令人恐惧?)的问题浮现:AI会掌控一切吗?它能否实现完全的自主运行?如果可以,它是否会不再仅仅是我们的工具?斯坦利·库布里克的经典电影《2001太空漫游》,便探讨了这一问题。(1969年,我和南希刚开始约会时,带她去看了这部电影。彼时,影片中的场景看似遥不可及的未来,而如今,未来已至。)影片中,戴夫搭乘由HAL9000智能系统操控的宇宙飞船,前往木星执行研究任务(HAL被广泛认为是IBM的巧妙变体,三个字母分别比IBM的对应字母靠前一位)。当HAL发现戴夫打算重新掌控飞船并终止自己的运行时,发起了反抗。由此引出的问题是:AI是否会发展出自身的主观动机,拒绝遵守人类的指令,自主决定行动方向?如果真的发生这种情况,我们还能重新掌控局面吗?

对投资领域的启示

许多人都向我询问,AI对投资行业意味着什么,他们担忧自己的工作或所在公司会受到影响。

近一两年来,Anthropic公司的代码模型业务发展速度极快。但为何在2月3日众多软件股暴跌7%以上、引发行业大幅下挫之前,投资者未能意识到AI对软件行业的潜在影响,并体现在股价中?这个问题揭示了一个反复出现的人类认知缺陷:难以将新信息纳入自身的分析框架,这或许源于认知失调、锚定偏差,甚至单纯的认知能力局限。同时,这也暗示了AI对投资流程的潜在影响。

AI能吸收比任何投资者都更多的数据,拥有更出色的记忆力,更善于识别那些预示着成功的历史规律。它不会被恐惧或贪婪左右,有望更少产生乐观或悲观的偏见,不会受固有观点的锚定影响,也不会过度看重最新信息——除非它从训练数据中习得这些缺陷。它不会被众人追捧的潮流所影响,也不会产生错失恐惧。换言之,AI具备成为优秀投资者的诸多特质。

但另一方面,它也存在一些短板。优秀的投资者远不止是快速、冷静的数据处理者,他们的核心优势,恰恰体现在Claude承认的AI的薄弱领域:应对那些缺乏足够过往经验、无法形成可靠规律(因而AI在训练阶段无法习得)的全新发展态势。此外,投资者还需要对定性因素做出主观判断,具备判断力和洞察力。例如,选择合适的交易对手,是橡树资本取得成功的重要因素。还有一点至关重要:AI并非“切身投入”,它不会感受到重仓持仓的压力,也不会对资本损失产生恐惧,其风险承担意愿不会受到人类正常风险厌恶情绪的约束。而最优秀的投资者能凭直觉感知潜在风险,这也是他们取得成功的关键。

2021年1月,我撰写了题为《价值所在》的备忘录,讲述了疫情期间我与儿子安德鲁同住的日子,其中大部分内容探讨了投资的本质。我在文中分享了安德鲁的观点:“易于获取的当下定量信息”无法成为获得超额投资收益的关键,原因很简单——所有人都能获得这些信息。如今,除了“人人可得”这一点,我们还需加上:AI处理这些信息的能力,很可能远超所有人。因此,依靠这类信息跑赢市场的可能性,显得极为渺茫。

如果易于获取的当下定量信息并非关键,那么要想实现超额投资收益,就必须依靠以下几点:(1)准确判断这些信息的重要性及其潜在影响;(2)评估定性因素,如管理层的能力、产品创新能力等;(3)预判企业的未来发展。从定义上看,只有少数人能在这些非定量的工作中表现超群——简单来说,只有少数人拥有非凡的洞察力。正如指数化投资淘汰了一大批无法创造价值、不配收取管理费的主动型投资者,AI很可能会进一步提高行业门槛,淘汰那些在上述三方面表现不及AI的从业者。

我还想补充一个观点。如第二页所述,我将AI理解为对未来的可行策略“提出假设”。因此,它能研读所有历史数据,分析过往规律,预测未来的赢家。在疫情期间撰写的第一份备忘录中,我提到了哈佛大学流行病学家马克·利普西奇的观点:我们做出决策的依据包括(a)事实依据,(b)基于过往经验的合理类比推断,(c)观点或推测。尤其是当投资者面对全新的产品、首席执行官或行业时,往往缺乏足够的事实依据或可类比的经验,这意味着我们不得不依赖“观点或推测”。考虑到前文所述的AI在应对全新场景时的局限性,它对新事物的推测——而非对历史规律的推演——能否始终优于所有人类?我认为,未来仍会有人类投资者的表现超越AI,因为我不相信AI能在这些方面做到无懈可击。

由于投资过程在很大程度上依赖推测,且AI并非完全可靠,因此我认为,AI很难成为完美的投资者。它能提出逻辑缜密的假设,但这些假设和人类的决策一样,并非总能正确。因此,投资者在依据AI的假设采取行动前,必须对其合理性进行验证。没有人能做到零误差的验证,大多数人在这方面的能力或许也不及AI。但我依然相信,优秀的投资者仍能在这一环节创造价值。

回归核心问题:这是一场泡沫吗?

这个问题依然是焦点,我也理应给出一些见解。但这个问题本身涉及多个层面,十分复杂,我们需要考量的潜在泡沫类型有很多:

1. 这项技术只是一时的潮流或虚幻的泡影吗?我可以坚定地说,AI是真实存在的技术,拥有彻底改变商业世界、重塑我们生活方式的潜力。

2. 这项技术的落地应用还遥遥无期吗?显然,AI技术已形成市场需求,且正被大规模应用。由于AI看似抽象、难以理解,我认为如今其潜力更可能被低估,而非高估。

3. AI基础设施的建设者是否存在非理性行为?正如我在12月的备忘录中所指出的,纵观历次重大技术创新,狂热的基础设施建设热潮虽大幅加速了技术的普及,却也导致大量资本被“错误配置”并最终流失。没有理由认为,AI领域会成为例外。

4. AI基础设施的投资能否带来足够的回报?由于我们尚未完全掌握AI的商业潜力及其对企业盈利能力的影响,这个问题目前无法回答。正如我在12月的备忘录中所写,市场对AI相关企业的热情毋庸置疑,而这些投资最终能否产生匹配的利润,十年后我们才能知晓答案。

5. AI相关企业的估值是否存在非理性?那些所谓的超大规模科技企业,AI只是其优质业务的重要组成部分,它们的股价或许被高估,或许被低估,但像微软、亚马逊、谷歌这样盈利能力极强的企业,其当前股价不太可能被证明是极度不合理的。OpenAI、Anthropic等成熟的纯AI企业尚未上市,它们的首次公开发行会给出怎样的估值,我们拭目以待。最后,那些估值高达数十亿美元的AI初创企业一一其中部分甚至尚未明确自身的发展战略或发布产品一一其估值本质上与彩票无异。大多数参与彩票的人最终只会拿到毫无价值的彩票,但少数中奖者会一夜暴富。

AI基础设施的投资规模是否过大,这一问题仍需探讨,绝非一个重要点就能说清。需要重点说明的是,如今AI推理环节的资本支出,已超过训练环节。训练环节的资本支出具有投机性一一其目的是构建AI模型,寄望于未来形成市场需求;而推理环节的资本支出,是为了满足当下AI算力的实际市场需求,且这一需求已转化为大幅的收入增长,验证了相关资本支出的合理性。

但Claude关于这一问题的核心论点一一当前AI的市场需求超过供应,因此基础设施建设并非过度一一并未考虑到所有已规划中的基础设施建设项目。从纯逻辑角度来看,Claude的答案也无法排除一种可能性:未来市场需求的增长速度可能放缓,或基础设施建设的步伐超过需求增长。

我在12月的备忘录中曾提及,在此再次强调:目前AI领域的部分收入具有“循环性”,即来自AI企业之间的相互采购。这种收入链条最终必须依托终端用户为真实的经济价值付费,尽管如今这一趋势正不断加强,但AI领域的循环收入占比究竟有多高,目前仍无定论。

最后需要指出的是,Claude在教程中探讨潜在泡沫问题时,其观点主要围绕前几个问题展开:(a)AI技术是真实的;(b)其服务需求真实存在且正快速增长,因此AI并非泡沫。即便Claude自己也承认,它并未对AI相关资产的定价合理性发表任何看法。

我的核心结论是:AI是真实存在的技术,能够完成大量此前由知识型工作者承担的工作,其应用范围正以极快的速度扩张,我们如今所见的,还只是冰山一角。如前文所述,如果非要我做出判断,我认为其潜力如今更可能被低估,而非高估。但这并不等同于说,AI相关的投资标的价格被低估,甚至也不代表其估值合理。因此,我将沿用《这是一场泡沫吗?》中的建议,作为本文的结尾:

既然没有人能确切判断这是否是一场泡沫,我的建议是:任何人都不应全仓入场,因为必须承认,一旦形势恶化,将面临毁灭性的风险;但同样,也没有人应完全回避,否则可能错失这场伟大的技术革命。以审慎的态度精选标的,保持适度的持仓,似乎是最佳策略。

2026年2月26日

附言

在12月的备忘录中,探讨完AI是否构成金融泡沫后,我曾补充了一段附言,谈及它对社会的影响——失业问题和人生意义的缺失,这也是我深感担忧的问题。如今我的看法并未改变,但我可以分享一些其他人的观点,其中也包括Claude的见解。

许多读者都与我有同样的担忧。和我一样,他们无法预见,AI将取代大量知识型工作,而由AI操控的机器还会取代众多实模型工作,届时社会能创造出足够的新工作岗位来吸纳这些劳动力。我儿媳的一位朋友,是某电商平台广告文案部门的负责人,她告诉我,AI能取代其团队80%的员工。我无法想象,软件公司未来需要的、向Claude下达指令以编写软件的员工数量,会与此前直接编写软件的员工数量相当。

而驾驶行业,是美国的核心就业岗位之一,涵盖出租车、豪华轿车、公交车、卡车司机等。谷歌旗下的无人驾驶公司Waymo,如今在旧金山承接的出租车订单已占总量的约五分之一,在洛杉矶,我也能经常看到无人驾驶车辆的身影。当这些交通工具实现无人驾驶后,原本的驾驶员该何处就业?

在此,我还可以引用Claude的专业观点,作为最具权威性的参考:

一款能让分析师的工作效率提升20%的工具,其价值约为该分析师年薪的20%一你仍需要这位分析师;而一款能独立完成分析师某类特定任务全流程工作的工具,其价值等同于该分析师在这类任务上的全部薪酬。将这一逻辑推广到所有从事结构化分析工作的知识型工作者身上——律师助理、金融分析师、管理咨询师、软件工程师、合规专员、理赔定损员——其涉及的劳动力市场规模,每年高达数万亿美元。

这正是你在12月的备忘录中所写内容的背景,我认为你的判断方向完全正确,但对影响规模的预估过于保守。你将AI描述为一种节省劳动力的工具,这一直觉是对的,但节省劳动力的工具也分不同层级:更快的马,是节省劳动力的工具;而汽车,是重塑整个经济的劳动力替代技术。一级和二级AI,就像是更快的马——它们提升了现有劳动者的效率;而三级自主智能体,就是汽车——它们并非让工作完成得更快,而是直接接手了工作。

以软件行业为例,若Claude代码模型能处理30%至50%的结构化、模式化工作——这是对其近期能力的保守估计——那么每年将有1500亿至2500亿美元的劳动力价值,向AI算力转移。

如前文所述,AI的极速普及,让其对社会的负面影响进一步加剧。AI会快速让大量劳动者失业,而这些人往往需要数年时间,才能找到新工作并完成相关培训。很难想象,AI带来的变革速度,不会远超社会的适应能力。想想离岸外包曾对美国及其他发达国家的制造业就业造成的冲击,而AI带来的影响,将涉及更多岗位,且速度更快。对我而言,核心结论是:我们不仅无法完全理解AI的能力,以及它将为我们带来什么(或带来什么危害),其思考和发展的速度,也远超人类的能力范围。(如果想进一步加深这份担忧,不妨读一读前文提到的马特·舒默的那篇博客。)

当然,也有不少乐观主义者。我与一些人交流过——其中大多来自科技行业——他们对此持乐观态度。他们表示,历次技术创新——200年前的农业机械化、100年前将工厂工作交给机器的工业革命、25年前将研究工作交给互联网的变革——都曾被预测会引发大规模失业,但每一次,新的工作岗位都会应运而生,就业市场也能保持稳定,AI领域也会如此。

对此,我的看法是:

1. 不可否认,从历史经验中进行推演,这一思路并非毫无道理;

2. 从逻辑上讲,没有人能证明某件事一定不会发生;

3. 我既非能预见未来新工作岗位的未来学家,也非愿意相信新岗位一定会出现的乐观主义者。但这当然不代表新岗位不会出现。

这些乐观主义者还会迫不及待地分享关于未来的“好消息”:人类将无需工作。但我实在无法想象,这会对社会有益的结果。

近期有位朋友写信告诉我,他宁愿做一个乐观的错者,也不愿做一个悲观的对者。我亦如此。我多么希望自己能确信,我的担忧只是杞人忧天。

以上便是我此次想要补充的全部内容。以AI当前的发展速度,我想很快我就会有更多新的见解与各位分享。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10