AI突飞猛进:霍华德·马克斯最新投资备忘录
作者:霍华德·马克斯 (Howard Marks) | Oaktree Capital Management
发布日期:2026年2月26日
阅读原文

引言
去年12月,我在准备撰写关于人工智能的备忘录《这是泡沫吗?》时,与一些三四十岁的科技界人士进行了深入交流。作为一个投资者,探索新领域、保持与时俱进是必不可少的,这也是我工作中最令人愉快的部分。
最近,我回访了这些人,跟进12月备忘录的后续发展。有人建议我让Anthropic的AI模型Claude创建一个教程,解释人工智能以及过去三个月发生的变化。这篇备忘录旨在作为12月备忘录的补充,大部分内容将回顾Claude的万字长文,并加上我自己的一些观察。
首先,我想表达对Claude输出的敬畏之情。它读起来就像来自朋友或同事的个人便条。它引用了我过去备忘录中讨论过的话题,如利率的重大变化、投资者心理的钟摆,并将它们用于与AI相关的比喻。它逻辑严密,预判了我可能的回应,还加入了幽默,并通过坦诚地承认AI的局限性来增强可信度。
理解AI的本质
重要的是,教程教会我不要把AI模型看作检索数据并重复它的搜索引擎。相反,它是一个能够综合数据并从中推理的计算机系统。
AI模型的生命周期有两个阶段:
1. 训练阶段(Training)
模型通过阅读海量文本来训练。训练阶段不应被理解为向模型加载信息——它包括教模型如何思考。通过吸收文本,模型学习:
- 如何理解和形成推理模式
- 论证是如何构建的
- 如何产生新的想法组合
- 如何将学到的推理模式应用于新情况
理解训练阶段的最佳方式是将其与人的智力发展相比较。婴儿并非天生具备思考能力,而是通过吸收和使用环境中的输入来发展它们。AI模型也是如此。
2. 推理阶段(Inference)
一旦模型被构建和训练完成,推理就是它在余生中做的事情,使用其能力来满足用户的需求。
需要注意的是,模型目前还不能给自己分配任务。它必须通过用户编写的”提示词”(prompts)来命令执行任务。提示词越好、越全面,AI能做的就越多。
AI能思考吗?
我知道AI可以重新配置人们已经搞清楚的东西,并将其应用于新数据和其他领域。但它能开创新天地吗?
AI的过程主要是使用历史模式和逻辑来预测序列中的下一项。让它组建一个跑赢市场的投资组合,它会查看过去表现良好的股票,并使用它们的特征来预测哪些股票在未来表现最好。我认为将AI看作基于过去情况对未来提出”假设”是有帮助的。
由此产生的问题是:
- AI能有新想法吗?
- 它能想到我们没告诉它去想的事情吗?
- 它能像坐在河边让随机的灵感进入脑海那样吗?
- 它能沉思、白日梦或构思吗?
- 它能有直觉吗?
怀疑论者的观点: AI学到的所有东西都来自于人类撰写的文本。它没有经验,没有对世界的具身理解。它产生的所有东西最终都是对它从现有人类作品中吸收的模式进行某种复杂的重新排列。这是 extraordinarily 令人印象深刻的模式匹配——但这不是思考。这不是推理。这是统计重组。
Claude的反驳(以我为框架): “霍华德,你关于投资的所有知识都来自其他人。本杰明·格雷厄姆教会你安全边际。巴菲特教会你质量。查理·芒格教会你多学科的mental models。你在五十年里读了数千本书、备忘录、案例研究和年度报告。每一个输入都是别人的思考……你采用了多学科的框架,将它们应用于新情况,并产生了真正新的东西……原材料来自他人。综合是你自己的。”
这就是人类大脑扩展其能力的方式。AI成长、学习和”思考”的方式真的与我们的不同吗?

AI的最新发展
发展速度前所未有
AI以远超过去技术创新的速度增长。将AI的发展与计算机进行比较:
- 第一台计算机ENIAC于1945年建成。近40年后(1980年代初),IBM才开始销售供一般商业和家庭使用的PC。
- AI在2010年前开始被无形地整合到设备中(如垃圾邮件过滤器和推荐引擎)。不到两年前,生成式AI被定位为影响知识工作的通用技术。
- 而仅仅两年后,它已经被约4亿个人和75-80%的公司使用。
AI能力的飞跃:从Level 1到Level 3
AI模型有三个能力层次:
第一层:聊天AI(2023年)
用户提问,模型提供答案。AI主要节省本来会花在研究和思考上的时间。
第二层:工具使用AI(2024年)
用户指示模型搜索信息、分析它并执行任务。节省的是执行时间,而不仅仅是思考时间。但它仍然是有限的,因为AI只做它被告诉的事情。
第三层:自主代理(2025-2026年)
用户给AI一个目标以及期望输出的参数。代理完成工作,检查它,并提交成品。这是任务层面的劳动力替代。不是协助——是替代。
第二层和第三层之间的区别可能听起来微妙。其实不然。这是决定AI是生产力工具还是劳动力替代品的区别。而这个区别就是将500亿美元的市场与数万亿美元的市场分开的东西。
Matt Shumer的见证:”我不再需要我的工作了”
OthersideAI首席执行官Matt Shumer的博客《大事正在发生》在不到一个月内被超过5000万人浏览。他的经历令人震惊:
“我不再需要我工作的实际技术工作了。我用plain English描述我想要构建的东西,它就……出现了。不是需要我修复的草稿。是成品。我告诉AI我想要什么,离开电脑四个小时,回来时工作已经完成。做得好,比我自己做的还要好,不需要任何修正。”
“它不仅仅是执行我的指令。它在做出明智的决定。它有一种感觉,第一次,像判断力。像品味。那种人们总是说AI永远不会有的、知道正确选择是什么的难以解释的感觉。”
AI的进步速度:
- 2022年:AI还不能可靠地做基本算术(7×8=54)
- 2023年:可以通过律师资格考试
- 2024年:可以编写工作软件和解释研究生水平的科学
- 2025年底:世界上一些最好的工程师说他们已经将大部分编码工作交给了AI
- 2026年2月5日:GPT-5.3 Codex发布,新模型的到来让之前的一切都感觉像是一个不同的时代
GPT-5.3-Codex是我们的第一个对自身创建起到重要作用的模型。Codex团队使用早期版本来调试自己的训练、管理自己的部署,以及诊断测试结果和评估。
——OpenAI技术文档
再读一遍。AI帮助构建了自己。这不再是预测,而是正在发生的事实。Anthropic首席执行官Dario Amodei表示,我们可能”距离当前一代AI自主构建下一代只有1-2年的时间。”

AI的局限与问题
- 前所未有的情况:目前尚不清楚AI是否能够解决以前没有解决过的问题。在没有丰富历史数据可供借鉴的领域,AI的表现如何,这是一个真实且未解决的问题。
- 幻觉(Hallucinations):AI并不总是意识到它不知道答案。它有强烈的动机提供它能提供的最佳答案(而不分享它可能是错的),而不是说答案超出了它的能力范围。
- 上下文窗口限制:AI在某一时刻可以在工作记忆中保存的信息量有限。它不能无限期地保持其工作知识。
- 可信度风险:AI的卓越可能赋予它过度的可信度。Claude每次使用时都会显示:”Claude可能会犯错。请仔细检查回复。”
60年前我了解计算机时,它们主要可以读取数据、记住它、加减和比较。这是一个非常有限的能力列表。但计算机可以快速地做这些事情,并且可以处理大量数据而不会出错。一个有限的列表,但可能比大多数人能做的更多。
同样,AI可能无法记住一切、无错误地操作、每次都识别出它不知道的东西。但大多数人也不能。底线是AI的能力远远超过我们大多数人。
对投资的影响
AI有能力吸收比任何投资者都多的数据,更好地记住它,并在识别先前成功之前的模式方面做得更好。它不应该感到恐惧或贪婪。它不太可能有乐观或悲观偏见、锚定于先前信念或过度强调最近的信息。换句话说,AI拥有成为一个好投资者所需的许多品质。
但AI缺少一些东西:
- 处理新颖发展的能力:在没有足够先前经验来编制可靠模式的情况下,AI可能表现较弱。这正是需要人类判断的地方。
- 定性判断:伟大的投资者必须就定性因素做出主观决定,并行使品味和辨别力。例如,选择合适的交易对手在Oaktree的成功中发挥了重要作用。AI将如何判断这种事情?
- 切身利益:AI没有切身利益。它感觉不到集中头寸的重量或资本损失的恐惧。它承担风险的意愿可能不受人类正常风险厌恶的限制。最好的投资者直觉地感知潜在风险。
AI将提高投资门槛:正如指数化消除了大量没有增加价值并赚取费用的主动投资者的工作一样,AI可能会进一步提高门槛,淘汰那些无法像它一样做好定量分析的人。
由于投资过程的很大一部分归结为推测,而且由于AI的可靠性并非百分之百,我认为AI作为投资者不太可能是万无一失的。它会提出合理推理的假设,但它们不会总是正确的。在投资者根据AI的假设采取行动之前,他们必须对其合理性进行检查。
那么,这是泡沫吗?
霍华德·马克斯从五个维度分析了AI是否存在泡沫:
| 问题 | 结论 |
|---|---|
| 这项技术是时尚还是幻觉? | ✓ 非常真实,有可能极大地改变商业世界 |
| 这项技术的应用是遥远的梦想吗? | ✓ 已经有大规模应用,约4亿人使用 |
| 建设AI基础设施的人行为不明智吗? | ? 历史上每次技术创新都有资本被”错误投资”,这次可能也不例外 |
| 对AI基础设施的投资会产生足够的回报吗? | ? 10年后才能知道利润是否证明投资合理 |
| 赋予AI业务的估值是非理性的吗? | ? 超大规模企业估值合理,但初创公司像彩票 |
霍华德的结论:
AI是非常真实的,能够做很多迄今为止由知识工作者完成的工作,并且在应用方面增长极快。我们今天看到的只是开始。它的潜力今天更可能被低估而不是被高估。
但这并不意味着AI投资在廉价柜台上,甚至是公平定价的。
建议:由于没有人能够确定地说这是否是泡沫,我建议任何人都不应该全力以赴,而不承认如果事情变糟,他们面临毁灭的风险。但同样,任何人都不应该完全置身事外,冒着错过最伟大技术进步之一的风险。采取适度立场,应用选择性和谨慎,似乎是最佳方法。
附言:社会影响的担忧
霍华德·马克斯表达了对AI导致大规模失业的深切担忧:
- 一位电商公司的广告文案负责人告诉他,AI可以取代她80%的员工。
- 软件公司可能不再需要那么多程序员。
- Waymo无人驾驶汽车已处理旧金山约五分之一的出租车行程。驾驶是美国最主要的工作之一,这些人将去哪里找工作?
Claude的计算:如果Claude Code处理结构化、基于模式工作的30%到50%,你看到的是每年1500亿到2500亿美元的劳动力价值迁移到AI计算。
第一层和第二层AI是更快的马——它们使现有工人更有效率。第三层代理是汽车。它们不是让工作更快。它们做工作。
对社会的负面影响因AI的采用速度而大大加剧。AI可以迅速让人们失业,而他们需要数年时间才能找到并接受新职业的培训。很难认为AI下的变化速度不会超过社会的调整能力。
乐观主义者的观点:每一项技术创新——农业机械化、工业革命、互联网——都被预测会导致广泛的失业,但在每一个案例中,新的工作都出现了。
霍华德的回应:“一位朋友最近写信给我,说他宁愿做一个乐观主义者而错,也不愿做一个悲观主义者而对。我也是。我希望我能确信我的担忧是没有根据的。”
这就是我现在要补充的全部。按照目前的速度,我可能很快会有更多内容。
— 霍华德·马克斯 | Oaktree Capital Management, L.P.
Leave a Reply