Anthropic启动IPO!CEO自曝内部算力财务模型:不确定性圆锥!回应泡沫:增长肯定放缓,旧芯片价值快速下降!规模依旧有效

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
Anthropic启动IPO!CEO自曝内部算力财务模型:不确定性圆锥!回应泡沫:增长肯定放缓,旧芯片价值快速下降!规模依旧有效
6465点击    2025-12-04 16:59

Anthropic启动IPO!CEO自曝内部算力财务模型:不确定性圆锥!回应泡沫:增长肯定放缓,旧芯片价值快速下降!规模依旧有效


我们买的算力规模,是在“即便是第 10 百分位的悲观情景下”,大概率依然付得起账。


YOLO式下注,风险旋钮拧的太狠了。


我认为胜率会在我们这边。


几个小时前,素有“华尔街、硅谷超级提问者”的DealBook 创始人、纽约时报首席财经记者Andrew Ross Sorkin,与 Anthropic 的 创始人 Dario Amodei 展开了一场年末对话。


这次采访背景一方面是大洋彼岸已经处于圣诞前夕,但更重要的一面是,昨天,Anthropic被曝出已经启动IPO筹备工作,计划最快2026年上市,估值或达3000亿-3500亿美元。


在此之前,则是 Transformer 架构和 Scaling Law 终结的争议,以及 Gemini 3 Pro 模型的爆火,OpenAI  内部拉响红色警报。这些事件的接连发生,让此前甚嚣尘上的“泡沫争议”和接下来AI模型的发展走向带来了新一轮的不确定性。


Dario在爆出了自家的算力财务模型,他们内部称之为一个不确定性圆锥。


如果我有 80% 的毛利率,我花 200 亿美金买算力,可以支撑 1000 亿美金收入。但问题在于,这个“不确定性圆锥”实在太宽了,很难避免在某一侧犯错。


此前,Dario 就曾表示,Anthropic 计划在 2028 年实现盈亏平衡。


而对于 AGI 的实现路径,Dario 对于 Transformer 架构依旧保持乐观:


我仍然认为是 “规模化 + 偶尔的小修小补” 就足够了。


对于业界一直担心的GPU芯片的折旧周期,Dario 回应道:旧芯片的价值会快速下滑。


我们在建模时,已经默认旧芯片价值会快速下滑,同时也假设芯片效率曲线会持续高速演进。


对于自己经常发出警告这件事,Dario对美国AI监管隐隐表达了不满:现在美国监管已经分成了两个世界,应该让真正最接近AI技术的人来发声。


对于自己曾说过的“90%的工作会被AI替代”言论,Dario说,那只是半句话,下半句则是——


哪怕 AI 完成了 90% 的工作,而不是 100%,人类的“剩余 10%”反而会被放大 10 倍,有时候甚至需要 10 倍的人,去完成原来 100 倍产出的事情。


问题不在“会不会替代”,而在“企业愿不愿意更多选择创造新价值,而不是只做极致降本”。


以下是这次采访的整理内容,大家enjoy!


泡沫存在:接下来速度一定会放缓

但有些公司却在YOLO 式下注


主持人(Andrew Ross Sorkin):今天下午的重头戏从 Dario 开始。他是当今人工智能领域最具影响力的人物之一,是 Anthropic 的联合创始人和 CEO,这家公司以 Claude 模型闻名,是历史上增长最快的科技公司之一,现在更是同时获得了三大科技巨头——亚马逊、微软和谷歌的支持。他比大多数人更早进入这个领域,早年在 BYU 做研究,后来加入谷歌,又成为 OpenAI 的早期成员,主导了 GPT-2 和 GPT-3 的研发。欢迎你来到现场。


Dario Amodei: 谢谢邀请。今天可以聊的话题很多,包括——我们是不是正处在一个 AI 泡沫中?但我保证,我们会慢慢谈到那个问题。


主持人: 那我就直接问那个一开始提到的问题吧。你也承认,2014 年没人想到 2025 年会走到今天这个程度。现在这个行业吸纳的资金规模,几乎代表了美国当前 GDP 增长的主要来源之一。我们是不是正处在某种泡沫中?是不是在过度投资?


Dario: 这是一个非常复杂的问题,我必须把“技术本身”和“经济层面”分开来看。从技术角度看,我非常坚定,我可能是最乐观的那一类人之一。 但从经济层面看,我确实有担忧。即便技术真的兑现了承诺,生态里如果有人在节奏上稍微踩错一步,后果会非常严重。


先说技术这部分。之所以我对技术进展并不太惊讶,是因为我和几位后来成为联合创始人的同事,最早系统性地总结过 AI 的“Scaling Law”——也就是只要你不断加算力、加数据,在少量结构微调下,模型能力就会持续提升。像推理模型、测试时算力,本质上都是非常小的改动。我已经跟踪这个趋势 12 年了。最震撼的是:你用这样极其简单的方式训练模型,它会在几乎所有领域同步变强——编程、科学、生物医药、法律、金融、材料、制造业,这些正是整个经济的核心价值来源。


只看 Anthropic 自身,因为我们更偏企业级市场,我觉得更像一个“纯粹的温度计”。我们过去三年,收入每年 10 倍增长:2023 年从 0 到 1 亿美元,2024 年从 1 亿到 10 亿,今年会落在 80 到 100 亿之间。未来还会不会这样涨?我不知道。但技术确实在推动价值,经济回报也正在兑现。 它一定会放缓,但依然会非常快。所以我对“长期终局的经济价值”是有信心的。


主持人: 但问题在于,现在有公司每年要烧掉上千亿美元,你们也计划投 500 亿。Sam Altman 去年的规划数字同样惊人。这是一次超级昂贵的下注。这个账到底能不能算清,还是更多是一种“直觉赌注”?


Dario: 这就进入我刚才说的第二部分——真正的困境来自于:“经济价值增长速度”的不确定性,与“数据中心建设周期”的滞后性之间,存在巨大张力。 这是摆在所有公司面前的真实两难。我认为有些参与者是在“YOLO 式下注”,把风险旋钮拧得太狠了,对此我非常担忧。


主持人: 谁在 YOLO?


Dario: 这个我不回答(笑)。


但你可以换个视角想:如果你站在我这个位置,连续三年收入 10 倍增长,很自然会去问:明年会怎样?如果你非常粗暴地外推,下一年可能是千亿美元级别——我必须强调,我完全不相信这个数字。但它是数学上的上限之一。如果你从更理性的企业客户、具体场景、销售路径去拆,可能是 200 亿、300 亿。所以我内部把它称为一个“不确定性圆锥”——一年后是 200 亿,还是 500 亿,极其不确定。 我只能按最保守的一侧去做规划,但这种不确定性本身就足够令人不安。


 算力财务模型

不确定性圆锥实在太宽了


Dario : 还要叠加一个现实因素:数据中心建设有很长的滞后周期,通常是一到两年。这意味着我必须在“现在”,甚至几个月前,就决定:在 2024 年初要买多少算力,去服务 2027 年初那个收入规模下的模型。这中间存在两个强耦合风险:第一,如果我买少了算力,我就没法服务所有客户,只能把他们推给竞争对手;第二,如果我买多了算力,而收入又没跟上,我就付不起这些算力的成本,极端情况下甚至会面临破产风险。这个“安全缓冲”本质上取决于我的利润率。如果我有 80% 的毛利率,我花 200 亿美金买算力,可以支撑 1000 亿美金收入。但问题在于,这个“不确定性圆锥”实在太宽了,很难避免在某一侧犯错。


Dario: 我们自认为是一家相对克制、负责的公司。因为我们主做企业市场,我觉得我们的商业模式更健康,利润更稳,也更谨慎。但如果你换成另一种模式,比如纯消费者业务,收入来源没那么确定、毛利也不稳定,再加上企业家本身就是那种“偏爱 YOLO、偏爱大数字”的性格,那风险旋钮就可能被拧得非常狠。只要存在不确定性,就必然存在过度扩张的系统性风险。 我们每家公司都面临这个问题,再加上彼此之间的竞争压力,甚至还叠加了与威权国家“国家层面的技术竞争”,整个系统都会被推着往前走。这种风险是不可消除的,只能被管理。 但我确实认为,有些参与者并没有管理好这种风险,而是在进行不明智的下注。


主持人: 你说到这里,其实大家心里大概也知道你在暗指谁。你曾对投资人私下说过,Anthropic 计划在 2028 年实现盈亏平衡;而 Sam Altman 说的是 2030 年。我暂且按他的算法来算:他需要在两年内从 740 亿美元级别的亏损,转为两年后实现盈利。这个在你看来合理吗?


Dario: 说实话,我不了解任何其他公司的内部财务情况,也不可能评价别人。我只能回到我们自己的计算逻辑,也就是那个“圆锥式不确定性”:我们买的算力规模,是在“即便是第 10 百分位的悲观情景下”,大概率依然付得起账。再糟也会存在“尾部风险”,这从来不可能为零,但我们在尽力把风险控制在可承受范围内,同时又要确保我们在竞争中不被甩开。我们在训练和推理上都很高效,利润结构也不错。我认为胜率在我们这边。


主持人: 现在市场上很多人开始讨论所谓的“循环交易”,以前我们管这叫“厂商融资”。尤其是英伟达,以及其他一些公司,直接入股 AI 公司,而这些公司随后又用这笔钱去买英伟达的芯片,相当于形成了资金闭环。你怎么看?


Dario: 我们也做过类似的交易,只是不是某些玩家那样的大规模操作。我不讲具体案例,只讲一个“标准化结构”的例子,解释为什么它在逻辑上成立:假设你要建 1GW 的算力规模,买芯片、建机房,总资本开支大概是 500 亿美元,使用周期可能是 5 年,也就是每年摊 100 亿。如果你是一家年收入 80—100 亿、处在快速增长期的公司,现在就让你一次性掏 500 亿,现实中根本不可能。那怎么办?大型厂商站出来说:“我先投你 100 亿,占 20%,你先用这 100 亿覆盖第一年,其余的慢慢按收入滚动支付。” 如果你已经接近 100 亿年收入,那这并不是一个疯狂的赌局。数据中心一年建成,第一年融资覆盖,意味着你只要在两年后做到 100 亿级别收入,就能跑得通这套逻辑。从结构上看,这并不违背商业逻辑。


Dario: 真正的危险只发生在一个场景:如果你一层层叠加这种结构,最后变成“到 2027 或 2028 年,我必须做到 2000 亿美元年收入”,那你就一定是在过度扩张。规模,决定了一切的风险边界。


一批芯片到底能撑过几年?

旧芯片的价值会快速下滑

保守押注者会活下来


主持人: 这里还有一个关键变量,几乎决定了整个行业的“投资算不算得过账”——芯片的折旧周期。你买一批新芯片,它到底是有效四年、五年,还是八年、十年?这个假设不同,整个行业的财务模型就完全不同。你怎么看?


Dario: 我们在内部做的是非常保守的假设。严格来说,并不存在一个固定、统一的“折旧年限”。芯片本身可以跑很多年,真正的问题不是“它还能不能用”,而是有没有更快、更便宜的新芯片出现,并且你的竞争对手已经在用它了。 一旦出现这种情况,老芯片的相对价值就会迅速下降,甚至一年之内就会发生。现在不止是英伟达,各家都在推新一代 TPU、GPU。我们在建模时,已经默认旧芯片价值会快速下滑,同时也假设芯片效率曲线会持续高速演进。我们在 Anthropic 的所有假设,基本都站在极端保守的一侧。 结果是:在“几乎所有世界线”里,我们都可以活下来。当然,极端尾部世界线一定存在,但我只能为我们负责,不能替别人背书。我也完全可以想象,有些公司正在“自我欺骗”,建立在过度乐观假设之上。


主持人: 所以,市场上真正理性克制的,其实就你们两家?


Dario: 我不知道你在指谁(笑)。我真的不知道。


ps:这里小编猜测,所谓市场上真正保持克制的这两家,一家自然是Anthropic,另一家90%的概率是指的 Amazon。(同样瞄准的是企业市场,而且没有过度囤卡。用排除法的话,只剩下 Amazon 和 Apple 了。然而Apple 算是大模型玩家吗???不大会。)


不卷C端!谷歌Gemini强归强,Claude清风拂山岗


主持人: 那我们换个话题,聊聊模型本身的竞争格局。就在过去一周,硅谷内部几乎“情绪失控”,因为某位你我都认识的人发布了新模型,引发了巨大震动。Saraparay 去年也来过这里,现在大家突然意识到,原本被认为“数据天生占优、理应赢麻了”的 Google,可能真的开始发力了。 Sam Altman 内部甚至发了“红色警报”邮件,让所有人回到工位冲刺下一轮突破。在你看来,现在这些模型的真实排序是怎样的?以及,这种“当下时刻的领先”,到底有多重要?


Dario : 这是少有的几个时刻之一,我真心觉得 Anthropic 选择了一条不同的道路,是一件值得庆幸的事。 我们走的是企业市场路线。你刚刚提到的另外两位玩家,本质上都还是以 消费者市场为核心,虽然也在做企业业务,但主战场仍在 C 端。这也是为什么会出现“Code Red”那种级别的内卷——Google 要守住搜索垄断,而 OpenAI 的核心阵地也在消费者端,这两家是在正面肉搏。对他们而言,企业只是“第二战场”。而我们过去几年一直在 围绕企业真实需求反向打磨模型能力,最先爆发的是编程,现在已经开始延伸到金融、生物医药、零售、能源、制造等领域。模型战争当然重要,比如我们上周刚发布的 Opus 4.5,在编程能力上几乎被公认为目前行业最强模型。但我们真正走的是“不同维度”的竞争路线,所以对这种你来我往的短期厮杀,依赖反而更低。某种意义上,我们处在一个相对“优越”的位置:可以持续增长、持续迭代模型,而不用天天发“红色警报”。


企业级AI很挑模型,迁移成本很高

专精能力会和AGI长期并存


主持人: 那这些公司真正的“护城河”到底是什么?如果有一天真的到了 AGI 级别,所有模型是不是都会趋同?谁还会在乎你用的是哪家?是“记忆能力”吗?还是人格差异?很多人现在就是哪个新就用哪个。


Dario: 我只能从企业侧讲我的结论。为企业打造的模型,和为消费者打造的模型,在“性格”和“能力结构”上差异非常大。 企业模型更少追求“黏性与娱乐感”,更强调编码能力、高阶智力活动、科学推理能力。我也不认同“只要到了 AGI,所有东西都会收敛成一个形态”。你看看在座的所有人,都具备“通用智能”,但我们没有变成同一种人。专精能力会和通用智能长期并存。 再加上企业侧的现实因素:公司会形成使用习惯,会和某个模型建立长期关系。即便是在 API 这种“卖裸模型”的业务里,迁移成本也极高。下游客户适应了某个模型的“脾气”,提示词、交互方式都深度绑定,切换代价很大。这意味着企业级 AI 具备长期稳定的商业粘性。


通往AGI,“规模化+小修小补”足够了


主持人: 一个纯技术问题:你认为,现在这种基于 Transformer 的架构,加上纯算力规模化,本身就足以通向 AGI 吗?还是说还缺“某个关键成分”?


Dario: 我仍然认为是 “规模化 + 偶尔的小修小补” 就足够了。这些修改之小,小到外界可能根本不会注意到,只是实验室里的技术迭代。我已经观察这些 scaling laws 超过 10 年了。


主持人: 那你的时间判断呢?AGI 在什么时候?


Dario: 我其实不太喜欢“AGI”“超人工智能”这些词,因为没有清晰定义。它更像 芯片摩尔定律式的指数曲线——模型会在所有维度持续变强:新模型比上一代编程更强、科研更强,现在已经常态化拿下高中数学竞赛,正在冲大学数学,甚至开始 首次产生“全新数学发现”。Anthropic 内部已经有人对我说:“我现在已经不写代码了,我只是让 Claude Code 先打草稿,我负责修改。” 这种状态,在过去从未真正出现过。 这个节奏只会继续加快,没有所谓“质变奇点”,只是能力持续外推,模型的智力不断抬升,收入曲线不断往后面加零。


美国AI监管已经分成了两个世界


主持人: 你在(美)监管、就业冲击这些问题上也相当激进。白宫的 David Sacks 曾公开指控 Anthropic 正在通过“制造恐慌”推动监管,从而进行“高阶版的监管俘获”,并且已经伤害了创业生态。你怎么回应?


Dario: 我还是那句话:不要把这场讨论变成对个人或单一机构的攻击。 我从 2016 年起就开始公开写 AI 风险和治理的论文,那时候 Anthropic 这个公司根本还不存在,更谈不上什么“监管俘获”。而且我们支持的几乎所有监管法案,都明确为中小型创业公司设立了豁免条款。 比如我们支持的 SB53 法案,年营收低于 5 亿美元的公司根本不在适用范围内。 我们在这件事上非常谨慎。真正该讨论的,不是立场对立,而是具体政策是否合理。


Dario: 你可以抛出各种指控,但这些说法和现实完全不符,无论是和我们实际支持过的法律条文,还是和真实情况,都对不上。现在其实存在两个世界:一边是 Andreessen Horowitz 等人,他们支持一个超级政治行动委员会;你们这边也在构建另一个超级 PAC,试图用完全不同的方式去影响这个行业的监管。问题是,为什么?你们看到了什么,是他们没有看到的?我还是想把讨论维持在政策层面。我对这项技术的看法是:我能理解一些人的乐观来源,但我确实担心,有一部分人把 AI 视为类似互联网、通信技术那样的技术革命,觉得市场自然会解决一切问题。放在过去那些技术浪潮里,这种看法也许是成立的。但真正最接近 AI 技术的人,并不这么看。


如果你去问那些真正做 AI 研究、真正构建模型的人——不是投资某些 AI 应用的投资人,也不是自以为懂 AI 的技术评论员——你会发现,他们一方面对潜力感到兴奋,另一方面也非常担忧。他们担心国家安全风险,担心模型对齐问题,担心 AI 对经济结构的冲击。 举个例子,有人曾提出要在十年内冻结所有监管,或者冻结州一级监管,而联邦层面又没有统一框架。这种提案去年夏天就出现过,上周又尝试了一次,结果再次失败,因为它极不受欢迎。连普通大众都清楚,这是一个全新而且极具力量的技术。


我可能是对 AI 正面效果最乐观的那一类人之一。 我写过一整篇文章《Machines of Loving Grace》,我在里面说,AI 甚至可能把人类的寿命延长到 150 岁。再往后推,当数据中心里真的出现“天才之国”,我们将拥有一个比任何人类都更快做出生物学发现的虚拟生物学家;它可能把经济增速推到 5% 甚至 10%。老实说,我对这项技术的乐观程度,可能比很多自称“技术布道者”的人还要高。 但一切如此强大的东西,都不可能没有巨大的副作用。作为一个社会,我们必须提前思考这些代价。 如果你说未来十年都不去监管这种技术,这就好比你在高速路上开车,然后决定把方向盘拆掉,因为“未来十年我都不需要转向”——这在逻辑上是说不通的。


老板们不应该只做极致降本,而忽视创造新价值

90%的工作被AI替代,但剩下的10%会被放大10倍


主持人: 那我们就谈谈其中一个最具体、最现实的风险——就业。除了黑客攻击这些问题,你最近在《60 Minutes》里也谈到过工作岗位。我想知道的不是“有没有可能”,而是,如果真的出现大量入门级岗位被替代,你认为应该怎么应对?


Dario: 我之所以不断发出这些警告,并不是为了当什么末日预言家,而是因为“发出警告本身,就是解决问题的第一步”。如果我们不提醒自己风险的存在,就相当于在雷区里闭着眼睛往前走;如果我们看见了地雷,就可以绕开它。我这段时间在认真思考这些问题,在 Anthropic 内部也是一样。现在 Claude 已经开始为我们写大量代码,我们也在亲身经历“工作如何发生变化”。


我把应对方式分成三个层级,从短期到长期,也对应从企业就能推动,到需要整个社会投入更多资源。


第一层,是企业自身与客户层面的调整。 每一家客户都会面临同样的权衡,这不是简单的“取代或不取代”。一部分场景中,AI 会直接完成原本由人类完成的工作,比如保险理赔流程、KYC 全流程自动化,这些都可以端到端由 AI 完成。结果就是:更高效率、更低成本、更少人力。但还有另一种路径——哪怕 AI 完成了 90% 的工作,而不是 100%,人类的“剩余 10%”反而会被放大 10 倍,有时候甚至需要 10 倍的人,去完成原来 100 倍产出的事情。问题不在“会不会替代”,而在“企业愿不愿意更多选择创造新价值,而不是只做极致降本”。 前一种他们一定会做,我们也不打算拦;但如果他们愿意更多做第二种,新增岗位也可能超过被替代的岗位。


第二层,是政府的介入。 我并不把“再培训”视为万能解法,但它一定是必要选项的一部分。企业会做,企业也必须和政府一起做。但从财政层面看,我认为政府迟早要介入。我不确定具体是税收工具,还是其他政策工具。但在一个高速增长的世界里,我们曾做过一份报告,即便是今天这些模型,也已经能让生产率每年提高 1.6%。这几乎意味着生产率的翻倍,而且模型还在不断变强。我认为未来有可能到 5%,甚至 10%。 这是一块极其巨大的“蛋糕”。如果财富过度集中,这块蛋糕本身也足够大,大到我们完全有条件照顾到那些并未直接从 AI 中受益的人。


第三层,是更长期的社会结构问题。 如果一个社会真正构建出了强大的 AI,它的运行方式必然会发生变化。回到凯恩斯在《我们后代的经济前景》中提出的“技术性失业”,他设想他的孙辈也许每周只需要工作 15 到 20 个小时。这是一种完全不同的社会结构。当然,总有人会选择拼命工作,但是否可能出现这样一个世界:对很多人来说,工作不再是生活的绝对中心,意义的来源发生转移,工作不再只是为了生存,更偏向于实现感?这种可能性真实存在。 我不是在提任何自上而下的规划,我只是认为,社会终究会在后 AGI 时代,自己找到新的运行方式。


这三层变化,从企业层面最容易、最快发生,到政府层面需要共识,再到社会结构层面最慢、最难推进。但未来很多年里,我们三件事都必须一起做。


主持人: Dario,我真心希望你还能再回来,和我们继续讨论这三件事该怎样一步一步落地。非常感谢今天这场精彩的对话。


Dario: 谢谢你,Andrew。谢谢大家。


文章来自于“51CTO技术栈”,作者 “云昭”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

2
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0