Anthropic CEO Dario Amodei 最近做客 Dwarkesh Podcast,聊了将近三个小时。这可能是近期信息密度最高的一次 AI 行业访谈——从 scaling laws 的现状到 AI 公司的商业模式,从编程生产力的真实数据到算力投资的风险博弈,干货极多。
以下是我基于 宝玉 @dotey 的深度解读 整理的核心要点和个人思考。
1. Scaling 没死,只是换了个形式
外界一直在传"scaling 撞墙了",但 Dario 给出了不同的图景:RL(强化学习)现在也展现出与预训练相同的对数线性 scaling 规律。
这意味着什么?意味着即使预训练的边际收益在递减,RL 接过了接力棒。模型变强的路径从"喂更多数据"变成了"让模型在更多任务上自我优化"。
Dario 2017 年提出的"大算力团块假说"(The Big Blob of Compute Hypothesis)至今成立——只要你把足够多的算力、数据、好的目标函数和归一化技术扔到一起,智能就会涌现。具体来说,七个关键要素:原始算力、数据量、数据质量和分布广度、训练时间、可 scale 的目标函数、归一化技术。
RL 正在从数学竞赛泛化到代码,再到更多任务。Dario 还给了一个有意思的类比:预训练介于人类进化和人类学习之间——比进化快得多,但比个体学习慢。这个定位很精准。
2. "扩散"是借口吗?
Dwarkesh 提了一个尖锐的问题:所谓的"AI 能力扩散到经济中需要时间",是不是 AI 公司在能力不够时的遮羞布?
Dario 的回答很有说服力:存在两个独立的指数——模型能力的指数增长,和经济扩散的指数增长。即使模型已经很强了,把它变成实际的经济产出也需要时间。
数字很说明问题:Anthropic 的收入从 2023 年的 0→1 亿,2024 年的 1→10 亿,2025 年预计 10→90-100 亿美元。即使扩散速度惊人(每年 3-5 倍甚至 10 倍),从"AI 很强"到"AI 改变了 GDP"之间仍然有巨大的时间差。
Dario 说了一句很有画面感的话:
"如果我们已经有了'天才之国',我们会知道的。每个人都会知道。"
换句话说——我们还没到那一步。但正在快速接近。
3. AI 编程的真实生产力:15-20%
这部分可能是对开发者最有实际价值的内容。
首先,一个重要的认知矫正:"AI 写了 90% 的代码" ≠ "不需要 90% 的程序员"。这两件事差了十万八千里。写代码只是软件工程的一部分,理解需求、架构设计、调试、沟通——这些 AI 目前帮不了太多。
然后是一个令人不安的数据:METR 的研究发现,使用 AI 的开发者实际上慢了 19%,但自己觉得快了 20%。这个认知偏差值得每个用 AI 编程的人警惕。
不过 Dario 说 Anthropic 内部的数据"毫不含糊"——AI 确实提升了生产力。当前的总体提升约 15-20%,半年前只有 5%,正在加速。随着 AI 能力覆盖的环节越来越多,Amdahl 定律开始生效——瓶颈会转移到 AI 还做不好的那些环节。
我的感受也类似:AI 编程最大的价值不是"帮你写代码",而是"帮你快速验证想法"。从 idea 到 prototype 的时间被压缩了一个数量级,这才是真正的生产力提升。
4. 持续学习可能根本不需要
这是一个反直觉的观点。很多人觉得 AI 要真正好用,必须能"在职学习"——记住你的项目、你的代码风格、你的偏好。但 Dario 的看法是:代码库本身就是外部记忆的载体,模型把它读进上下文就行了。
两种机制足以替代持续学习:预训练+RL 带来的泛化能力,以及上下文学习。持续学习是锦上添花而非必需品。
Dario 甚至预测:1-3 年内,AI 能比合作了 6 个月的人类同事更好地理解你的代码。如果这成真,那"AI 不了解我的项目"这个最常见的抱怨就不再成立了。
5. 算力投资:为什么 Anthropic 不 All-in?
OpenAI 的 Stargate 计划砸下 5000 亿美元基础设施,总承诺 1.4 万亿。这个规模令人咋舌。
Dario 为什么不跟?答案很简单:风险。技术到位和收入到来之间有一个危险的时间差。投太多,如果收入没跟上,公司就死了。
两种策略的对比很鲜明:
- OpenAI:"要么统治世界,要么破产"的豪赌
- Anthropic:"活着到达终点"的稳健路线
Dario 还不客气地说:"其他一些公司根本没有把账算清楚。"这话虽然没点名,但指向很明显。在 AI 行业的淘金热中,保持头脑清醒本身就是一种竞争优势。
6. AI 公司的盈利模型
这部分非常有洞见。Anthropic 大约 50% 算力用于训练、50% 用于推理,推理的毛利率超过 50%。
一个精妙的视角:亏损 = 预测需求偏高(建了太多产能),盈利 = 预测需求偏低(供不应求)。所以盈利不是"不再投资"的信号,而是"猜对了需求"的信号。
更有意思的是 token 价值差异:帮你"重启 Mac"的 token 值几美分,但帮药企"移动芳香环"(药物分子设计)的 token 可能值几千万。这意味着未来很可能出现"按结果付费"的模式,而不是简单的按 token 计费。
市场结构方面,Dario 认为会形成古诺均衡——高准入门槛下的自然寡头。训练前沿模型的成本只会越来越高,能玩得起的玩家会越来越少。
7. Claude Code 的诞生故事
作为 Claude Code 的重度用户,这段特别有共鸣。
Claude Code 最初叫 Claude CLI,只是内部工具。关键在于反馈循环:Anthropic 的工程师自己既是开发者也是最密集的用户,这意味着每个痛点都能被快速发现和修复。
现在 Claude Code 的 ARR(年经常性收入)约 25 亿美元。从内部工具到 25 亿美元产品,这个增长轨迹本身就很能说明问题——最好的产品往往来自 dogfooding。
8. API 商业模式会持续存在
Dario 对 API 模式的思考很有意思:API 提供的是最接近"裸金属"的 AI 访问。它的价值在于让 1000 个人去实验,其中 100 个会创业,10 个会成功,2-3 个会定义新的使用方式。
这是一种平台思维——你不需要自己想出所有的应用场景,只需要提供足够好的基础能力,让生态去探索。
9. 监管的荒谬
最后一个值得关注的点:田纳西州有个法案试图将 AI 提供情感支持列为重罪。Dario 直言"这很蠢"。
监管确实需要跟上 AI 的发展,但方向应该是确保安全和透明,而不是一刀切地禁止有益的使用场景。用重罪来惩罚 AI 情感支持,就像因为有人用刀伤人就禁止所有厨房用刀一样荒谬。
10. 为什么不能让中美都有"天才之国"?
Dwarkesh 问了一个看似简单的问题:为什么美国和中国不能都有一个"数据中心里的天才之国"?
Amodei 给出了三层担忧:
一是攻击主导性。可能出现比核武器更危险的局面。核均衡是稳定的(基于威慑),但 AI 的均衡可能不稳定——"当双方对获胜概率有不同评估时,冲突更可能发生。两边不可能都是对的,但两边都可能觉得自己有 90% 的把握赢"。
二是威权政府可能用 AI 压迫本国人民。"我担心的是如果世界被切成两块,其中一块可能以一种极难撼动的方式变成威权或极权体制。"
三是初始条件的重要性。他不是说一个国家或联盟应该宣布"我们说了算"。但在某个窗口,AI 会让某个国家获得重大的国家安全优势,届时会有"隐性或显性的谈判"来决定"后 AI 世界秩序"。"我希望在那次谈判中,古典自由民主制度握着更强的牌。"
Dwarkesh 挑战:三年前你就在强调这些,但现实是 AI 在更广泛地扩散,你想象的"关键时刻"似乎没出现。
Amodei 承认不确定是否存在单一关键时刻,但他认为会有"一个或少数几个关键时刻,或某个关键窗口"。
他还分享了一个更有想象力的希望:AI 可能具有某种"溶解威权结构"的内在属性。类比工业化使封建制过时——"封建主义在发明了工业化之后就不再可持续了"。互联网曾被寄予这种希望但失败了,也许可以用那次失败的经验再试一次?
但 Dwarkesh 冷静地指出:同样的逻辑也可能意味着民主制度不再有竞争力。Amodei 承认这种可能性存在。
在具体政策上,他区分了不同类型的输出:可以向威权国家出售药物和治愈方案,但不应该出售芯片和数据中心。也应该在非洲建数据中心——"只要不是中国拥有的"。
11. 历史将如何记录这个时代
Dwarkesh 最后问:"当有人最终写出这个时代的'原子弹的制造'时,他们最可能遗漏什么?"
Dario 说了三点:
一是外部世界的理解程度之低。事后看,已发生的事显得不可避免。但实际押注的人面对的是巨大的不确定性。
二是速度。"一切都在同时发生。你可能以为是精心计算的决策,实际上你要在同一天做 30 个决定,而且你不知道哪些最终会改变历史。"
三是随机性。他描述了一个画面:
"我的一个担忧是——某个非常关键的决定,可能就是有人走进我的办公室说,'Dario,你有两分钟。选 A 还是选 B?'有人递给我一份随机的半页备忘录。我说,'我不知道。我得去吃午饭了。那选 B 吧。'结果那就是有史以来最关键的决定。"
关于公司文化,Dario 说他约 30-40% 的时间花在文化建设上。核心机制是每两周一次的 "Dario Vision Quest"(DVQ)——一份 3-4 页的文档涵盖内部动态、产品进展、行业状况和地缘政治,全员分享并回答问题。
他暗示某些竞争对手正在经历内部"解体"——人们互相争斗,且在恶化。而 Anthropic 在凝聚力上做得很好。
未被解决的核心矛盾
Dario 在这次两小时对话中传递了几个核心信号:技术判断清晰(Scaling 继续,1-3年内可能突破),经济判断谨慎(快但非无限快,盈利是需求预测的函数),政治判断紧迫(时间不多了)。
核心矛盾是 Dwarkesh 反复追问的:如果你真信 1-3 年,你的行为为什么不像?Dario 的回答是"因为猜错一年就破产"——这是一个诚实但令人不安的答案:即使最确信的人也无法用行动完全匹配自己的信念。
另一个悬而未决的问题:Anthropic 内部"毫不含糊"的生产力提升 vs METR 研究的 -19%,这个差距如何解释?可能的解释包括 AI 实验室的人更擅长使用工具、任务类型不同、模型版本差异等,但值得持续关注。
核心问答速览
- AGI 时间线? 10年内90%确信,1-3年内约50%概率
- AI编程真实提升? Dario估计15-20%(半年前5%),METR研究显示-19%
- AI公司如何盈利? 推理毛利率>50%,盈亏取决于需求预测准确性
- 中美竞争立场? 芯片不卖,药物可以,希望民主国家握更强的牌
- Claude Code怎么来的? 内部工具先行,"自己做模型+自己最需要用"的反馈循环
推荐看完整访谈视频:YouTube 链接