本周三,OpenAI正式发布了GPT Image 1.5 功能。就在同一天,OpenAI CEO 山姆·奥特曼接受了《Big Technology Podcast》的采访。
这期访谈的信息量非常密集,奥特曼从商业、产品和基础设施三个层面,系统回应了外界最关心的问题。多项表态释放出一个清晰信号:OpenAI正站在从“现象级产品公司”迈向“企业级AI平台”的关键拐点上。
有关最近热议的OpenAI进入“Code Red”状态,奥特曼坦言当OpenAI感受到竞争压力时,内部会频繁进入“红色警报”状态。今年DeepSeek出现时他们也经历过一次。但这样的状态不会持续太久,他相信ChatGPT依然是市面上最具主导地位的聊天机器人,并且领先优势只会扩大,不会缩小。

今年是OpenAI 企业业务爆发的一年,奥特曼透露了一组数据:OpenAI目前已经拥有超8亿的周活跃用户和超100万的企业用户,API业务的增长速度已经超过ChatGPT本身。今年,API对公司整体增长的贡献,甚至高于消费者产品。他判断企业业务将是OpenAI明年发展的重点。
关于模型路线图,奥特曼并未给出GPT-6的明确时间表,但确认OpenAI将在明年一季度推出一款相较GPT-5.2有显著能力跃迁的新模型,模型升级仍在持续推进。
有关OpenAI推出的首款AI硬件——那个没有屏幕的AI手机,奥特曼表示OpenAI会推出一系列小型AI设备,而非单一爆款产品。他认为,未来计算设备的形态将发生根本变化,从被动响应指令的工具,转向能够主动理解用户生活、上下文与协作关系的智能系统。
此外,奥特曼还坦言算力仍是收入的主要瓶颈,如果现在能有2倍算力,收入也会翻2倍:
从一年前到现在,我们的算力规模大概翻了三倍;明年我们希望再翻三倍,之后如果顺利,还会继续。
如果我们现在拥有双倍的算力,我认为此刻的收入也会是现在的两倍。
小编在不改变原意的情况下,对本期访谈进行了整理和润色,信息量非常大,enjoy!
OpenAI的红色警报时刻
主持人:现在OpenAI 正处在一种“code red”状态。Gemini 3 发布之后,你放眼望去,到处都是试图削弱 OpenAI 优势的公司。OpenAI 会如何走出这个阶段?先从“code red”说起吧。
Sam Altman:首先,关于“code red”,我们把它看成是相对低风险、但会比较频繁启动的一种状态。我认为保持警惕、在潜在竞争威胁出现时迅速行动是好事。我们以前也经历过。今年早些时候 DeepSeek 出现时,我们也进入过一次 code red。
有一句关于流行病的说法是:当一场疫情刚开始时,你在早期采取的每一个行动,其价值都远高于后期的行动。但大多数人一开始做得不够,后来才开始恐慌。我们在新冠疫情中就见过这种情况。我基本上就是用这种思路来应对竞争威胁的。

Gemini 3 到目前为止并没有产生我们最初担心的那种影响,但它确实像DeepSeek 一样,暴露了我们在产品和战略上的一些弱点,而我们正在非常快速地修正这些问题。我不认为这次 code red 会持续太久。历史上看,这类状态通常持续六到八周。我很高兴我们启动了它。
就在今天,我们发布了一个新的图像模型,这是用户非常期待的东西。上周我们发布了 5.2,反响极好,增长也非常快。接下来还会有几项新发布,同时也会持续改进,比如提升服务速度。
我的判断是,未来很长一段时间里,我们可能每年都会经历一到两次这样的阶段。这只是为了确保我们能在这个领域里取胜的一部分方式。其他公司也会做得很好,我也为他们感到高兴。但 ChatGPT 依然是,而且是远远是市场上最具主导地位的聊天机器人,而且我预计这个领先优势会扩大,而不是缩小。
模型能力会在各处变得越来越好,但用户选择一个产品,不论是消费者还是企业客户,原因远不只是模型本身。我们早就预期到了这一点,因此一直在构建一整套完整的产品体系,确保我们成为用户最想使用的 AI 产品。
竞争是好事,它会推动我们变得更好。我认为我们在聊天产品上会做得很好,在企业市场也会做得很好,未来几年在新的品类中也会表现出色。
我认为,人们真的只想用一个 AI 平台。就像在个人生活中用手机一样,大多数人也希望在工作中使用同一套体系。我们在 AI 领域也看到了同样的趋势。ChatGPT 在消费端的强势,正在实实在在地帮助我们赢得企业市场。当然,企业需要不同的功能,但人们会想:“我了解 OpenAI,也熟悉 ChatGPT 的界面。”
我们的战略就是:做最好的模型,围绕模型构建最好的产品,并且拥有足够的基础设施来大规模服务用户。
超8亿周活跃用户和超100万企业用户
主持人:今年早些时候,ChatGPT 的周活跃用户大约是 4 亿,现在已经到了 8 亿,有报道称甚至接近 9 亿。但另一方面,像 Google 这样的公司拥有巨大的分发优势。如果模型逐渐趋同,你是否认为模型会“商品化”?如果会,真正重要的是什么?是分发能力?应用构建能力?
Sam Altman:我不太认同“商品化”是一个准确的框架。不同模型会在不同领域表现出不同优势。对于日常聊天这类通用场景,可能会有很多不错的选择;但在科学发现等前沿领域,人们会想要真正处在技术边界、为科学优化过的模型。
我认为,最大的经济价值仍然会由处在技术前沿的模型创造,而我们计划继续保持领先。我们非常自豪,5.2 是目前世界上最强的推理模型,科学家们正用它取得实质性进展;同时,企业客户也反馈说,它在企业所需的各类任务中表现最佳。
当然,有些时候我们会在某些领域领先,在另一些领域稍微落后。但总体来看,即便在“免费模型能完成大多数基础需求”的世界里,最智能的模型依然具有巨大的价值。
产品本身会非常重要,分发和品牌也会非常重要。以 ChatGPT 为例,个性化是极其“粘性”的功能。用户非常喜欢模型随着时间推移逐渐了解他们,我们会在这方面投入更多。
人们会在这些模型上获得一些非常“魔法般”的体验,并将这些体验与某个产品牢牢绑定在一起。有人曾对我说,大多数人一生只会选一次牙膏,然后就一直用下去。ChatGPT 也是如此。比如医疗场景:有人把血检结果或症状输入 ChatGPT,发现了长期未被诊断的问题,去医院后得到了治疗。这类用户的粘性非常高。
除此之外,还有更深层次的个性化。
我们最近还发布了浏览器产品,我认为这指向了一种新的、潜力很大的入口模式。
硬件设备会更晚一些,但我对此非常期待。
在企业端,护城河会以另一种形式出现,但逻辑是类似的。就像消费者端的“个人级个性化”一样,企业也会有“企业级个性化”。企业会把自己的数据接入我们的系统,使用来自不同公司的 AI agent,而我们确保信息被正确处理。这同样会非常粘人。

很多人把我们视为一家消费级公司,但实际上我们已经拥有超过 100 万名企业用户,而且 API 的增长速度甚至超过了 ChatGPT 本身。今年,企业业务真的开始爆发了。
终局是人手一个AI Agent
主持人:如果不是“商品化”,那是否可以说,在普通用户层面会出现“体验趋同”,而真正的差异会发生在前沿能力上?如果对普通用户来说 ChatGPT 和 Gemini 差不多,那 Google 这种拥有巨大分发渠道的公司,会不会构成非常大的威胁?
Sam Altman:Google 依然是一个巨大的威胁,是一家极其强大的公司。如果 Google 在 2023 年就认真对待我们,我们可能会处在非常不利的位置。他们完全有能力压垮我们。

但当时他们的 AI 产品方向并不完全正确。他们也经历过自己的 code red,但并没有真正全力投入。另外,Google 拥有整个科技行业里最强的商业模式之一,这反而会让他们在放弃现有模式时行动缓慢。
把 AI 直接“加装”到网页搜索上,我不确定是否有效。我可能会错,但我不认为那会像彻底重构产品那样成功。
这其实是一个更普遍的趋势:与其在旧系统上简单叠加 AI,不如在“AI 优先”的世界里重新设计产品。这也是我们最初想做 AI 设备的原因之一。
无论是搜索、生产力工具,还是消息应用,逻辑都是一样的。如果你在消息应用里加一个 AI,总结消息、帮你写回复,确实会好一点,但这不是终局。真正的终局是:你有一个非常聪明的 AI agent,帮你和其他人的 agent 交互,判断什么时候该打扰你,什么时候不该;哪些决策可以自己处理,哪些需要你介入。

我认为新产品一定会出现,只是通常比我们预期得要慢。
主持人:很多人也提到过类似观点。ChatGPT 刚发布时,有人说,也许不该把 AI 加进 Excel,而是彻底重新思考 Excel。但现实中,人们发现还是需要一个“后台系统”。那为什么不能在现有系统上直接加 AI 呢?
Sam Altman:你当然可以加,但我认为那是错误的接口。我每天大量时间都花在各种消息工具里:邮件、短信、Slack 等。我认为这本身就是不对的交互方式。
我真正想要的是:早上告诉 AI,我今天要完成什么、在担心什么、希望发生什么。我不想一整天都在发消息,也不想看总结或草稿。能处理的事情,你就自己处理。你了解我,也了解其他人,知道我的目标。只在必要时,每隔几个小时向我汇报。这是一种完全不同的工作流。
未来AI应该根据任务生成不同的交互界面
主持人:那你认为 ChatGPT 在未来一年、两年里会变成什么样?
Sam Altman:老实说,我本以为到现在为止,ChatGPT 的形态已经会发生更大的变化。我当初没想到聊天界面会走这么远。最初它只是一个研究预览,并不打算成为产品。我低估了这种通用界面的力量。
我认为未来,AI 应该能够根据任务生成不同的界面。如果你在处理数据,它应该用合适的方式展示,并支持不同交互。Canvas 只是一个开始,但应该更互动、更连续、更主动。
它应该能在后台为你工作,理解你一天的目标,持续推进任务,并在合适的时候提醒你。
今年让我最兴奋的一件事是 Codex 的进步,它指向了我心目中未来的形态。
坦率地说,我对 ChatGPT 这三年外观变化之小感到意外,但事实证明,这个界面确实有效。

主持人:但“内核”已经发生了巨大变化,尤其是记忆功能。我已经和 ChatGPT 就一次复杂旅行计划聊了好几周,现在只要说“继续我们之前的旅行计划”,它就能接上。记忆能力最终能强到什么程度?
Sam Altman:我认为我们目前根本无法想象。即便是世界上最好的私人助理,也不可能记住你说过的每一句话、读过你写的每一封邮件、参与你生活的每一个细节。
但 AI 可以。现在的记忆功能还非常原始,相当于 GPT-2 时代的水平。未来,它会记住你生活中的每一个细节,不只是事实,还有那些你甚至没意识到的偏好。这将极其强大。也许不是 2026 年,但这是我最期待的方向之一。
关于人和AI的陪伴关系:将自由度交给用户
主持人:
这一轮 AI 浪潮中被严重低估的一点:很多人已经把这些机器人当成陪伴者,觉得它们在“关心自己”。所以我很好奇你的看法:当人们和 AI 之间出现某种陪伴关系,这中间是否存在一个“调节旋钮”?比如,你们是否可以决定:让人们和 AI 变得非常亲近,或者刻意保持一点距离?如果这个旋钮存在,你们要如何把它调到一个“正确”的位置?
Sam Altman:确实有比我原先想象得多得多的人,希望与 AI 形成一种我们姑且称之为“亲密陪伴”的关系。我也不知道该用什么词来形容它。“关系”不太准确,“陪伴”好像也不完全对,但可以肯定的是:他们想和 AI 建立一种深度连接。
让我意外的是,在当前模型能力还处于这个阶段时,就已经有这么多人想要这种连接。我们在很多方面都低估了这一点。年初的时候,说自己想要和 AI 建立这种关系,还是一件“很奇怪”的事。现在可能仍然有很多人嘴上不愿意承认,但从行为偏好上看,他们确实喜欢。
人们希望 AI 聊天机器人了解他们、对他们温暖、支持他们。这种体验是有价值的,甚至包括那些嘴上说“我不在乎这些”的人,实际上也更偏好这种风格。

我认为,这其中有一些形态是非常健康的。对于成年用户来说,他们应该拥有很大的自由度,决定自己想处在这个光谱的哪一端。当然,也有一些形态在我看来是不健康的,尽管我确信还是会有人选择它们。同时,也确实有一部分用户只想要一个极度理性、极度高效、完全不带情感色彩的工具。
所以我猜测,就像很多其他技术一样,我们会先“跑一轮实验”。我们会发现很多“未知的未知”,有好的,也有坏的。最终,社会会慢慢形成共识:这个旋钮大概应该怎么调。而个体层面,人们会做出非常不同的选择。
主持人:所以你的想法是,把这个决定权交给用户?
Sam Altman:是的,毫无疑问。但我们也并不清楚,这条线究竟该放到多远。我们会给予用户相当大的个人自由度,但也会设定一些明确的边界。
有些事情,我们已经讨论过:其他服务可能会提供,但我们不会。比如,我们不会允许 AI 试图说服用户,与它建立一种“排他性的浪漫关系”。这条线我们不会越过。
主持人:但我猜你也很清楚,这种事情一定会在别的产品里发生。
Sam Altman:是的,我确信会。因为“粘性”越强,商业回报就越大。当你认真思考这些可能性时,确实会让人感到有点害怕。
OpenAI 明年将重点发展企业业务
主持人:
你上周在纽约和一些媒体高管、新闻公司的 CEO 共进午餐时提到:企业业务将是 OpenAI 明年的重点方向。我很想听你系统地讲讲:为什么现在是重点?你们如何看待自己相对于 Anthropic 的位置?这是否意味着 OpenAI 正在从一家“消费者公司”转向企业?
Sam Altman:我们的战略从一开始就是“消费者优先”。原因有几个。
第一,早期模型的稳定性和能力,并不足以支撑大多数企业级应用;而现在,它们正在达到这个门槛。第二,我们当时拥有一个非常清晰、而且极其罕见的机会:在消费者市场取得决定性胜利。而一旦你赢下了消费者市场,进入企业市场会容易得多。现在,我们正在亲眼看到这一点。
正如我之前提到的,今年企业业务的增长速度,已经超过了消费者业务。结合当前模型的能力,以及我们对明年模型进展的预期,我们认为:现在正是快速构建一个非常重要的企业级业务的窗口期。

我们已经有企业业务了,但它还可以增长得更快。企业已经准备好了,技术也准备好了。编码是目前最明显的例子,但其他垂直领域也正在非常快速地增长。
我们开始听到越来越多企业说:“我不想要一堆零散工具,我想要一个 AI 平台。”
主持人:哪些垂直领域最让你兴奋?
Sam Altman:如果只能选一个,我个人最兴奋的是金融和科学领域。客户支持现在做得也非常好。
主持人:那我必须问你一个问题了:GDP Eval。
Sam Altman:我就知道你会问。
主持人:我在去见你之前问了 Box 的 CEO Aaron Levie,我该问 Sam 什么问题。他说:“一定要问 GDP Eval。”这是一个衡量 AI 在知识工作中表现的指标。
我回看了 GPT-5.2 发布时的 GDP Eval 图表。GPT-5 Thinking 在夏天发布时,在 38.8% 的知识工作任务上达到了“持平或优于人类专家”;GPT-5.2 Thinking 达到了 70.9%;GPT-5.2 Pro 达到了 74.1%,并且在专家级任务上,通过了“专家水准”的阈值。
这意味着什么?当模型可以完成这么多知识工作时,它对企业意味着什么?
Sam Altman:这正是关键所在。GDP Eval 覆盖了大概四十多个企业必须完成的任务类型:做 PPT、做法律分析、写一个小型 Web 应用等等。
评测的核心问题是:在这些明确范围内的任务上,专家是否更偏好模型的输出,而不是其他人类专家的输出。当然,这些任务都不是高度开放式、创造性的工作,也不涉及复杂的团队协作。
但如果你可以把一小时的任务交给一个“同事”,然后有 70%~74% 的概率得到一个你更满意的结果,而且成本更低,这依然是极其惊人的。如果三年前 ChatGPT 刚发布时你说“三年后会达到这个水平”,大多数人都会说不可能。
所以企业整合 AI 的逻辑已经变了:它不只是写代码,而是几乎所有可模块化的知识工作,都可以被“外包”给 AI。这需要时间去消化,但影响会非常深远。
关于就业:未来每个人都会管理一大堆AI
主持人:一位技术文案写作者说:“聊天机器人出现后,我的工作变成了管理机器人,而不是管理一组客服。”但接着他说:“当机器人被训练得足够好之后,我就被裁掉了。”这种情况会不会越来越普遍?
Sam Altman:我同意你的判断:未来,每个人都会管理一大堆 AI。而一个好的管理者,团队变强之后,通常不是被替代,而是承担更大的职责范围。
我不是一个“就业末日论者”。短期内我确实担心转型会比较痛苦,但从长期来看,我不认为人类会失去意义。
人类极度在意彼此、在意相对地位、在意被需要、在意创造与表达,这些深层驱动力不会消失。
2050 年我们每天在“做什么”,肯定和今天完全不同,但我不相信生活会变得毫无意义。不要和进化生物学对赌。
我甚至经常想:如果有一天 OpenAI 的 CEO 是 AI,我完全不介意,甚至会很兴奋。当然,前提是它必须受到人类治理。
如果你设想这样一个结构:全人类都是董事会,AI CEO 负责执行决策,对未来的人来说,这可能会显得非常合理。
明年一季度发布较5.2显著提升的新模型
主持人:GPT-6 什么时候来?
Sam Altman:我不确定我们什么时候会把某个模型命名为 GPT-6。但我预计,明年第一季度,会有相较于 5.2 有“显著提升”的新模型发布。

对消费者来说,大家现在最想要的不是更高 IQ;但企业仍然非常想要。所以我们会在不同维度上推进改进。
目标很简单:做一个所有人都明显更喜欢的模型。
算力翻倍,收入就翻倍
主持人:那我们来聊基础设施吧。你们大约有 1.4 万亿美元规模的基础设施投入承诺。你曾说过,如果人们真正理解“计算力能做什么”,他们会想要多得多。10 倍、100 倍算力能带来什么?
Sam Altman:我个人最兴奋的一点,是用大量计算力推动科学发现。科学发现是世界进步的“最高位”。一旦你看到早期信号开始从零抬头,我们就知道该如何放大它,但这需要极其庞大的算力。
我们已经在用 AI 探索新科学、治愈疾病等方向,虽然现在还非常早期。
一个近期的小例子:我们用 Codex 在不到一个月内开发了 Sora 的 Android 应用。他们用了大量 token,但完成了原本需要很多人、更长时间才能完成的工作。

你可以想象:未来,整个公司都可以用算力来“构建产品”。实时生成的 UI、企业级转型、个性化医疗,这些都会消耗巨量算力。
如果你做一个粗糙的思想实验:今天一家前沿 AI 公司每天可能输出 10 万亿 token;而如果把全人类每天产生的“思想输出”做一个类比,你会发现 AI 输出的规模,最终可能超过全人类总和的 10 倍、100 倍。
这个对比当然很粗糙,但它能帮助理解一个量级变化:地球上的“智力计算”,正在从人类大脑,快速转向 AI 大脑。
主持人:所以我在想,你是否已经清楚地看到这样一种现实需求:人们确实想要使用更多算力。比如说,如果 OpenAI 把投入到科学领域的算力直接翻倍,我们是否就能“确定性地”看到科学突破?或者在医学领域,是否就能清晰地、更有效地辅助医生?
Sam Altman:基于我们目前所看到的一切,我的判断是:这些事情一定会发生。当然,这并不意味着未来不会出现某种极端情况。比如说,有人发现了一种全新的架构,带来一万倍的效率提升,那我们可能就会在一段时间内显得算力建设“过度”。
但就当前而言,我们看到的所有迹象,模型在每一个新层级上变得更强、用户在每一次能力提升后都更想使用它们、每当我们把成本压低一点,使用需求就显著上升——所有这些都指向同一个结论:对智能的需求会持续增长。人们会用这些模型做很棒的事情,也会做一些无关紧要、甚至有点傻的事情。但整体来看,这就是未来的形态。
而且,这不仅仅是“每天能生成多少 token”的问题。随着代码模型能力的提升,另一个关键维度是速度。模型可以思考很长时间,但你并不希望等很久。所以需求会体现在多个维度上,而不仅仅是 token 数量。
如果你面对的是一个非常棘手的医疗问题,你会选择用 5.2,还是 5.2 Pro?哪怕后者要消耗多得多的 token,我也会选择更好的模型。我认为大多数人都会这么选。
主持人:那我们再往下挖一层,回到科学发现本身。你能否举一个具体例子?有没有这样一种情况:某位科学家有一个问题 X,如果能投入算力 Y 就能解决,但现在还做不到?
Sam Altman:今天早上我在 Twitter 上看到一个很有意思的现象:一群数学家在相互回复对方的推文。很多人说,自己之前一直非常怀疑大模型是否真的能对数学研究有帮助,但 5.2 是第一次让他们“跨过了那道门槛”。模型在一定辅助下完成了一个小证明,发现了一个小结果,但关键在于,这已经开始实实在在地改变他们的工作流程。

然后越来越多的人加入讨论,说“我也是”“对我来说也是这样”。当然,也有少数人说 5.1 就已经达到了这个水平,但并不多。这是一个非常新的例子,这个模型发布还不到五天,但数学研究社区已经开始集体意识到:某件重要的事情发生了。
我也看到 Greg Brockman 在他的动态里不断分享各种数学和科学领域的应用案例。我感觉在 5.2 这个节点上,这些社群里真的发生了某种“点击时刻”。接下来会如何发展,非常值得关注。在这种规模下,算力建设的一个现实难点在于:你必须提前很久做决定。你刚才提到的那 1.4 万亿美元,我们会在一个非常长的时间跨度里慢慢投入。我当然希望能更快,如果我们能更快地上线算力,我相信需求是存在的。
但现实是,建设这些项目需要极其漫长的时间:数据中心、电力、芯片、系统、网络,一切都需要时间。所以这会是一个长期过程。
不过,从一年前到现在,我们的算力规模大概翻了三倍;明年我们希望再翻三倍,之后如果顺利,还会继续。收入的增长速度甚至略快于算力增长,但整体上两者是大致匹配的。

到目前为止,我们从未遇到过“算力无法被有效变现”的情况。如果我们现在拥有双倍的算力,我认为此刻的收入也会是现在的两倍。
推理将反超训练成本
主持人:收入在增长,算力支出也在增长,但算力支出的增速仍然高于收入。有报道说,OpenAI 在 2028 或 2029 年实现盈利之前,累计亏损可能达到 1200 亿美元左右。你能谈谈这个转折点是如何出现的吗?
Sam Altman:随着收入增长,以及推理在整个算力结构中占比越来越高,它最终会覆盖、并超过训练成本。这就是计划。
我们现在花很多钱在训练上,但随着时间推移,会赚得越来越多。如果我们不继续大幅增加训练投入,我们其实可以非常非常早就实现盈利。但我们选择的路径,是对大模型训练进行极其激进的投资。
主持人:全世界都在关注一个问题:收入最终如何与支出匹配。如果今年的收入目标是 200 亿美元,而总投入承诺是 1.4 万亿美元,这中间的逻辑该如何理解?
Sam Altman:这正是我想公开讲清楚的原因。人类对指数级增长的直觉非常差。我们可以在脑子里处理很多数学问题,但“指数增长”几乎是进化没有为我们优化过的能力。
我们相信,收入可以在相当长一段时间内保持非常陡峭的增长曲线。而我们现在看到的一切也表明:如果没有足够的算力,这是做不到的。算力约束会非常直接地压制收入。
如果有一天,我们拥有大量无法在“单位算力上实现盈利变现”的算力,那确实是一个需要认真重新审视的问题。但目前,我们已经用多种方式测算过。
同时,我们的单位算力成本也会持续下降。消费者市场在增长,企业市场在增长,还有很多我们尚未推出的新业务形态。算力是这一切的生命线。

我们一路上有很多“检查点”。如果在时间或数学上略有偏差,我们也有一定灵活性。但现实是,我们一直处在“算力短缺”状态,它始终限制着我们能做的事情。
主持人:所以本质上是:训练成本在绝对值上升,但在整体结构中的占比会下降?
Sam Altman:是的。通过企业业务、API、用户愿意为 ChatGPT 付费,我们预期收入增长最终可以覆盖这些投入。这就是计划。
主持人:最近市场情绪波动很大,尤其是“债务”进入这个叙事之后。传统上,债务通常用于可预测的业务,但 AI 是一个高度不确定的新领域。你怎么看债务进入这个体系?
Sam Altman:老实说,市场在今年早些时候才是真正“失控”的。我们和某家公司开个会,对方股价第二天就涨 15%、20%,那才是不健康的。我反而很高兴现在市场多了一些怀疑和理性。
我认为,如果我们建设基础设施,整个行业一定能从中获得价值。现在仍然非常早期,但几乎没人再质疑“AI 基础设施是否有价值”这件事了。所以我觉得债务进入这个市场是合理的。
当然,也会出现各种金融创新,其中一些可能并不理性。但比如说,给公司贷款建数据中心,这在我看来是合理的。
主持人:一种担忧是:如果模型能力增长放缓,基础设施的实际价值低于预期,数据中心最终可能被折价出售。
Sam Altman:我确实认为,过程中一定会有繁荣与萧条。这从来不会是一条完美平滑的曲线。
但有一件事我非常确信,甚至愿意拿公司去下注:模型一定会变得好得多。我们对此有非常清晰的判断窗口。
即便模型能力停在 5.2,不再进步,5.2 相对于世界目前实际利用到的价值之间,仍然存在一个巨大的“经济价值悬空”。就算冻结在 5.2 上,世界还能从中挖掘出多少价值、创造多少收入?我认为是巨大的。以前我们常用一个二维矩阵来讨论未来:短时间线/长时间线,慢起飞/快起飞。但现在我脑子里多了一个 Z 轴:能力悬空(overhang)小还是大。
我过去可能默认认为,如果模型有很大价值,世界会很快学会如何部署它。但现在看来,大多数领域里的能力悬空会非常巨大。
会有一些领域,比如一部分程序员,会迅速因为这些工具而效率暴增;但整体来看,我们已经拥有了一个极其聪明的模型,而大多数人问的问题,仍然和 GPT-4 时代差不多。
这种巨大的能力悬空,会给世界带来很多奇怪的后果,而我们还远没有完全理解它们。

主持人:关于这种“能力悬空”,我也很好奇:模型明明能做得更多,但很多企业在落地时却说“没有 ROI”。可另一方面,又有很多企业说,即便 GPT-5.2 的价格涨 10 倍他们也愿意付,说你们严重低估了它的价值。这两种说法怎么同时成立?
Sam Altman:我也觉得这两件事放在一起看,是很难自洽的。至少如果你去问程序员,他们会说:“这东西我愿意付 100 倍的价格。”
主持人:可能只是官僚流程在把事情搞复杂。
Sam Altman:
假设你相信那些“GDP 等价”指标,那么在那类定义得比较清楚、但时长不算特别长的知识型工作任务中,十次里有七次,你用 5.2 的输出会和现在一样满意,甚至更满意。
如果是这样,你本来就应该大量使用它。但现实是,人们改变工作流的速度非常慢。大家已经习惯了让初级分析师去做 PPT 之类的事情,这种惯性比我想象中要强得多。老实说,我自己的工作方式也还基本没怎么变,尽管我很清楚,其实我完全可以比现在更频繁地使用 AI。
AI硬件方面:将推出整个设备家族
主持人:关于你们正在做的那个设备。我听到的一些说法是:手机大小、没有屏幕。那么,如果它本质上是“没有屏幕的手机”,为什么不能只是一个 App?
Sam Altman:首先,我们会做的是整个设备家族,而不是单一的一款设备。随着时间推移,会逐步展开。我认为,人们使用计算机的方式会发生一次转变:从一种“愚钝、被动”的工具,变成一种“非常聪明、主动”的存在。

它会理解你的整个生活、你的上下文、你周围正在发生的一切;它会非常清楚你身边有哪些人,无论是物理上在你附近,还是通过计算机与你协作的人。而我认为,现有的设备形态并不适合那样的世界。
我一直坚信一点:我们是在设备能力的边界上工作。你面前有一台电脑,它有一堆既定的设计选择,比如它要么是打开的,要么是合上的,但它没法做到:一边“关闭”、一边又在你忘记问我问题的时候悄悄在你耳边提醒你。那种形态,或许会非常有用。
但我们现在的设备有屏幕,而屏幕把我们限制在一种已经延续了几十年的图形界面范式里;还有键盘,它最初的设计目标甚至是“降低信息输入速度”。这些假设长期以来从未被真正质疑,因为它们确实有效。
而现在,一个全新的东西出现了,它打开了一个全新的可能性空间。我不认为当前的设备形态,恰好就是这种“全新能力”的最优载体。如果真是这样,反而会显得非常奇怪。
OpenAI是否要打造云业务?
主持人:你谈到过要“做云”。这是一位听众发来的邮件:“我们公司正在从 Azure 迁移,直接集成 OpenAI,来为产品里的 AI 体验提供能力。目标是在整个技术栈中注入数万亿 token 的流量。这是否意味着你们的计划,是打造一个非常大的云业务?”
Sam Altman:首先,数万亿 token,确实是很多 token。如果你问的是算力需求和我们的企业战略,企业客户已经非常明确地告诉我们:他们希望从我们这里购买多少 token。我们几乎可以肯定,在 2026 年仍然无法满足全部需求。
整体策略是这样的:大多数公司似乎都希望来到像我们这样的公司,说“我需要一个‘XX 公司 + AI’的解决方案;我需要一个为我公司定制的 API;我需要一个为我公司定制的 ChatGPT Enterprise;我需要一个可以运行所有这些 agent 的平台,并且我能信任我的数据;我需要把数万亿 token 注入到我的产品里;我需要让所有内部流程都变得更高效。”
而我们目前还没有一个真正意义上的“一站式方案”,但我们希望把它做出来。

主持人:你的野心是把它做到 AWS 或 Azure 那个级别吗?
Sam Altman:我认为这是一个不同类型的东西。我并不打算提供所有那些通用云服务,比如托管网站之类的,老实说我甚至都不太清楚它们全部都提供什么。
我的直觉是:未来人们仍然会继续使用他们的“传统 Web 云”;但与此同时,还会出现另一种东西。公司会说:“我需要一个 AI 平台,用来支撑我所有的内部工作、我对外提供的服务,以及我想做的一切。”
它当然在某种意义上运行在物理硬件之上,但我认为它会是一个非常不同的产品形态。
主持人:我们快速聊一下“发现”。你曾说过,你认为模型,或者是人类与模型协作,明年就能做出一些小发现,五年内会有大突破。你指的是模型本身,还是人类使用模型?你为什么对此有信心?
Sam Altman:我指的是人类使用模型。至于模型自己提出问题、自己决定该研究什么,那感觉还要更久一些。
但如果世界因此获得了新的知识,我们就应该为此感到非常兴奋。人类进步的整个历史,本质上就是:我们制造更好的工具,用它们去做更多事情,然后在这个过程中,再制造出更好的工具。
这是一种“脚手架式”的攀爬:一层一层、一代一代、一次发现接着一次发现。问题是人类提出的,这一点丝毫不会削弱工具的价值。
说实话,今年年初我还以为这些“小发现”会在 2026 年才出现,但它们在 2025 年下半年就已经开始了。当然,现在的发现非常非常小,我不想夸大其词。但“有一点”,在我看来在质感上和“什么都没有”是完全不同的。
三年前我们发布第一个模型时,它不可能对人类知识总量做出任何新的贡献。而现在已经不一样了。
如果你问未来五年的路径,我猜这会是一种典型的 AI 爬坡过程:每个季度进步一点点,然后突然有一天,我们回头看,会发现“哇,人类在这些模型的增强下,正在做五年前的人类根本不可能做到的事情。”
至于是该把功劳归于“更聪明的人类”,还是“更聪明的模型”,只要我们真的得到了科学发现,我对这两种说法都完全满意。
关于明年IPO的计划
主持人:明年IPO ?你想成为一家上市公司吗?你们看起来还能私有运作很久。
Sam Altman:这里面有很多因素。我确实觉得,让公共市场参与价值创造这件事本身挺酷的。某种意义上,如果对比历史上的公司,我们已经算是非常晚才考虑上市了。

作为一家私有公司当然很好。但我们确实需要大量资本,而且在股东数量等方面,迟早会跨过一些监管门槛。
你问我:我是否“期待成为一家上市公司的 CEO”?答案是:0%。
但我是否期待 OpenAI 成为一家上市公司?某些方面,我是期待的;但某些方面,我也觉得那会非常烦人。
AGI可能已经在某个阶段达到了
主持人:我非常认真地听了你和 Theo Von 的那次访谈。在 GPT-5 发布前,你对他说:GPT-5 在几乎所有方面都比我们聪明。我当时觉得,这不就是 AGI 的定义吗?如果不是,那这个词是不是已经变得有点空泛了?
Sam Altman:这些模型在“原始算力”层面上确实非常聪明。最近几天大家在讨论 GPT-5.2 的 IQ——144、147、151,取决于你用哪套测试。很多领域专家也在说,它能完成非常惊人的任务,显著提高了他们的效率。
我们也讨论过 GDP 指标。但有一件事是模型目前还做不到的:它今天发现自己不会做某件事,然后自主地意识到“我需要学这个”,接着自己去学习、理解,等你第二天回来,它已经真正掌握了。
这种持续学习能力,连幼儿都具备,而在我看来,这是一个非常关键的组成部分。
那是不是说,没有这一点,就不能算 AGI?我认为,很多人已经觉得我们现在就是 AGI 了。如果在当前智能水平的基础上,再加上那种能力,那几乎所有人都会同意:这就是 AGI。
所以我觉得,“AGI”这个词的问题在于:它从一开始就没有被清晰定义。有一件事我很遗憾我们在 AGI 上没做好:我们没有提前把定义说清楚。现在大家转而开始讨论“超级智能”。
我的一个提议是:我们干脆承认AGI 已经在某个模糊阶段“呼啸而过”了。它可能没有立刻改变世界,但在长期一定会。现在有人觉得我们已经到了,有人觉得还没有,而认为“已经到了”的人会越来越多。

然后我们可以问:下一步是什么?
我心目中一个可能的“超级智能”定义是:当一个系统在担任美国总统、世界级大公司 CEO、或大型科研机构负责人时,即使不需要人类辅助,也能做得比任何人类更好。
这让我想起了国际象棋:最初是人类对 AI;然后有一段时间,人类 + AI 比单独的 AI 更强;再后来,人类反而成了干扰,最强的是“不带人类的 AI”。
我觉得这或许是理解超级智能的一个有趣框架。当然,这还很遥远。但这一次,我真的希望我们能把定义弄得更清楚。
参考链接:
https://www.youtube.com/watch?v=2P27Ef-LLuQ
文章来自于微信公众号 “51CTO技术栈”,作者 “51CTO技术栈”
【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!
项目地址:https://github.com/coze-dev/coze-studio
【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。
项目地址:https://github.com/n8n-io/n8n
在线使用:https://n8n.io/(付费)
【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。
项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file
【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。
项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file
在线使用:https://vectorvein.ai/(付费)
【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。
项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file
本地安装:https://www.deepbi.com/
【开源免费】airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。
项目地址:https://github.com/hitsz-ids/airda
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md