今天《纽约客》发表了历时 18 个月的调查报道,首次披露 OpenAI 首席科学家 Ilya Sutskever 在 2023 年秋天汇编的 70 页内部备忘录,以及 Anthropic 联合创始人 Dario Amodei 保留多年的 200 余页私人笔记。
这些从未公开的文件指向同一个结论:Sam Altman 存在「一贯撒谎」的行为模式。
这不是一场简单的公司内斗。当 AI 被认为可能是「人类历史上最危险的发明」,当一家公司声称要「确保 AGI 造福全人类」,掌舵者的诚信问题就不再是私事,而是关乎所有人的公共议题。
APPSO 基于《纽约客》原文,重新梳理呈现这场震动硅谷的诚信危机。
这是一个关于权力、谎言与 AI 未来的故事。

Altman 的双标:
安全危机:
权力游戏:
2023 年秋天,Ilya Sutskever 做了一件在硅谷极其罕见的事:他用手机偷拍公司内部文件,汇编成 70 页备忘录,发给董事会成员。
为什么要偷拍?因为他不敢在公司设备上留下痕迹。
备忘录以「消失消息」的方式发送,确保不会有人看到。一位收到备忘录的董事会成员回忆:「他吓坏了。」
这份从未完整公开的文件,开头是一个列表:「Sam exhibits a consistent pattern of...」
第一条:Lying。
说谎。

不是「沟通风格问题」,不是「过度乐观」,不是「愿景型领导者的特质」。就是两个字:说谎。
写下这份备忘录的人,2019 年曾在 OpenAI 办公室主持 Greg Brockman 的婚礼,机器人手臂充当戒指递送员。他曾把 Altman 和 Brockman 都当作朋友。
但到 2023 年,当 Sutskever 相信 AGI 即将到来时,他对另一位董事会成员说:「我不认为 Sam 应该是那个手指放在按钮上的人。」
Dario Amodei 离开 OpenAI 后联合创立了 Anthropic。在那之前,他保留了多年关于 Altman 和 Brockman 的私人笔记。
超过 200 页的相关文件在硅谷流传,从未公开披露。
其中一份文件里,Amodei 写道:Altman 的话「几乎肯定是 bullshit」。

这不是竞争对手的恶意攻击。Amodei 在 2015 年加入 OpenAI 之前,Altman 曾在印度餐厅与他一对一晚餐。那次晚餐上,Altman 向他保证:OpenAI 会专注于安全,「也许不是马上,但会尽快」。
Amodei 在笔记中记录了 Altman 的承诺。然后他用多年时间,记录这些承诺如何一个接一个被打破。
笔记的标题是「My Experience with OpenAI」,副标题:「Private: Do Not Share」。
2023 年 11 月 17 日,Altman 在拉斯维加斯观看 F1 比赛。Sutskever 邀请他视频通话,宣读了一份简短声明:他不再是 OpenAI 的员工。
董事会发布公告,措辞谨慎:Altman 被解雇是因为他「在沟通中不够坦诚」。
微软投资了 130 亿美元,在 Altman 被解雇前几分钟才得知消息。CEO Satya Nadella 后来说:「我非常震惊,我从任何人那里都问不出什么。」
Reid Hoffman 开始打电话调查:「我不知道他妈的发生了什么。我们在找贪污、性骚扰,但什么都没找到。」
然后反击开始了。
Altman 的 2700 万美元豪宅变成「流亡政府」。危机公关专家 Chris Lehane 加入,他的座右铭来自 Mike Tyson:「每个人都有计划,直到被打了一拳。」

Lehane 敦促 Altman 发动激进的社交媒体战役。Airbnb 联合创始人 Brian Chesky 与科技记者 Kara Swisher 保持联系,传递对董事会的批评。
每天晚上 6 点,Altman 会暂停「作战室」,来一轮内格罗尼鸡尾酒。「你需要冷静,」他回忆说,「该发生的总会发生。」
但他的通话记录显示:他每天打电话超过 12 小时。
投资公司 Thrive 暂停了原定的投资,暗示只有 Altman 回归才会完成交易。员工才能拿到数百万美元的股权兑现。
一封要求 Altman 回归的公开信在公司内部流传。一些犹豫签名的人接到同事恳求的电话和消息。最终,OpenAI 大多数员工威胁要跟随 Altman 离开。
董事会被逼到墙角。Helen Toner 说:「Control Z,这是一个选项」,撤销解雇。「或者另一个选项是公司分崩离析。」

甚至 Mira Murati 最终也签了信。她曾向 Sutskever 提供备忘录素材。
Brockman 的妻子 Anna 在办公室找到 Sutskever,恳求他重新考虑。「你是个好人,你可以修复这个,」她说。
Sutskever 后来在法庭证词中解释:「我觉得如果我们走上 Sam 不回来的道路,OpenAI 就会被摧毁。」
一天晚上,Altman 吃了安眠药 Ambien,被丈夫 Oliver Mulherin 叫醒,说 Sutskever 动摇了,人们让 Altman 跟董事会谈。「我在这种疯狂的 Ambien 迷雾中醒来,完全迷失方向,」Altman 说,「我当时想,我现在不能跟董事会谈。」
在一系列越来越紧张的电话中,Altman 要求解雇他的董事会成员辞职。
不到五天,Altman 复职。
Sutskever、Toner、McCauley 失去董事会席位。唯一留下的原董事会成员是 Quora 创始人 Adam D'Angelo。

作为退出条件,离职董事会成员要求对 Altman 的指控进行调查。他们还要求新董事会能够独立监督外部调查。
但两位新成员,前哈佛校长 Lawrence Summers 和前 Facebook CTO Bret Taylor,是在与 Altman 密切协商后选定的。
「你愿意做这个吗,」Altman 给 Nadella 发短信,「Bret、Larry Summers、Adam 作为董事会,我作为 CEO,然后 Bret 处理调查。」
员工现在把这一刻称为「Blip」,漫威电影中角色从存在中消失然后回归的事件。但世界已经因他们的缺席而深刻改变。
离职董事会成员的条件之一:必须有独立调查。
OpenAI 聘请了 WilmerHale 律所,这家律所曾负责安然和世通的内部调查。
但六位接近调查的人士称:这场调查似乎被设计成限制透明度。
一些调查人员最初没有联系公司的重要人物。一位员工联系 Summers 和 Taylor 投诉。「他们只对董事会戏剧期间发生的事情感兴趣,而不是他诚信的历史,」这位员工回忆采访时的感受。
其他人不愿分享对 Altman 的担忧,因为他们觉得没有足够的匿名保护。「一切都指向他们想要找到的结果,就是宣判他无罪,」这位员工说。
企业调查的目的是赋予合法性。在私人公司,调查结果有时不会写下来,这可以限制责任。但在涉及公共丑闻的案例中,通常会有更高的透明度期望。

在 Travis Kalanick 2017 年离开 Uber 之前,董事会聘请了外部公司,向公众发布了 13 页摘要。
鉴于 OpenAI 的 501(c)(3) 地位和解雇的高调性质,许多高管预期会看到详细的调查结果。
2024 年 3 月,OpenAI 宣布为 Altman 开脱,但没有发布报告。公司在网站上提供了大约 800 字,承认「信任破裂」。
参与调查的人士说:没有发布报告是因为根本没有写报告。
调查结果仅限于口头简报,分享给 Summers 和 Taylor。
「调查并没有得出结论说 Sam 是诚信的乔治·华盛顿,」一位接近调查的人士说。但调查似乎没有把诚信问题作为 Altman 被解雇背后的核心,而是把大部分精力放在寻找明确的犯罪行为上。在此基础上,调查得出结论:他可以继续担任 CEO。

不久之后,Altman 重新加入董事会。他在被解雇时被踢出董事会。
不制作书面报告的决定部分是根据 Summers 和 Taylor 的私人律师的建议做出的。
许多前任和现任 OpenAI 员工表示,他们对缺乏披露感到震惊。
Altman 说他相信所有在他复职后加入的董事会成员都收到了口头简报。「这是彻头彻尾的谎言,」一位直接了解情况的人士说。
一些董事会成员表示,关于报告完整性的持续质疑可能会促使「需要进行另一次调查」。
OpenAI 成立时的核心承诺:如果 AI 可能是人类历史上最危险的发明,那么安全必须优先于一切。
2023 年春天,OpenAI 宣布成立「超对齐团队」,由 Jan Leike 和 Sutskever 领导。公司承诺将「我们迄今获得的 20% 算力」投入这个团队,潜在价值超过 10 亿美元。
这个承诺蒸发了。
四位在该团队工作或与该团队密切合作的人士说:实际资源在公司算力的 1% 到 2% 之间。
而且,一位团队研究员说:「大部分超对齐算力实际上在最旧的集群上,用的是最差的芯片。」
研究人员认为,更好的硬件被保留用于创收活动。
Leike 向当时的 CTO Mira Murati 抱怨,但她告诉他别再提这件事,这个承诺从来就不现实。

2022 年 12 月的一次会议上,Altman 向董事会保证,即将推出的 GPT-4 模型中的各种功能已获得安全小组批准。
董事会成员 Helen Toner 要求提供文件。她发现最具争议的功能,一个允许用户为特定任务「微调」模型的功能,以及另一个将其部署为个人助理的功能,实际上并未获得批准。
当 McCauley 离开会议时,一名员工把她拉到一边,问她是否知道印度的「违规」。Altman 在与董事会的多小时简报中,没有提到微软在印度发布了 ChatGPT 的早期版本,而没有完成所需的安全审查。
「这完全被忽略了,」当时的 OpenAI 研究员 Jacob Hilton 说。
2023 年,公司准备发布 GPT-4 Turbo 模型。根据 Sutskever 备忘录的详细说明,Altman 显然告诉 Murati 该模型不需要安全批准,引用了公司总法律顾问 Jason Kwon 的话。
但当她通过 Slack 询问 Kwon 时,他回复:「呃……困惑 Sam 从哪里得到这个印象。」
GPT-4 发布后,Leike 给董事会成员发邮件。「OpenAI 在其使命上已经偏离轨道,」他写道。「我们将产品和收入置于一切之上,其次是 AI 能力、研究和扩展,对齐和安全排在第三位。」
他继续写道:「像谷歌这样的其他公司正在学习,他们应该更快地部署并忽略安全问题。」
超对齐团队在 2024 年被解散,没有完成其使命。Sutskever 和 Leike 辞职。
Leike 在 X 上写道:「安全文化和流程已经让位于闪亮的产品。」

不久之后,AGI 准备团队,负责让社会为先进 AI 的冲击做好准备,也被解散。
当公司在最近的 IRS 披露表格上被要求简要描述其「最重要的活动」时,安全这个概念,在之前表格的答案中出现过,没有被列出。
OpenAI 说其「使命没有改变」,并补充说:「我们继续投资并发展我们在安全方面的工作,并将继续进行组织变革。」
生命未来研究所(Future of Life Institute)是一个智库,其安全原则 Altman 曾经背书。该机构对每家主要 AI 公司的「存在性安全」进行评分。
在最近的成绩单上,OpenAI 得了 F。
公平地说,除了 Anthropic(得 D)和 Google DeepMind(得 D-)之外,其他所有主要公司也都得了 F。
「我的感觉与很多传统 AI 安全的东西不匹配,」Altman 说。他坚称自己继续优先考虑这些问题,但当被要求提供具体细节时,他含糊其辞:「我们仍然会运行安全项目,或者至少是与安全相邻的项目。」
当记者要求采访公司内部从事存在性安全工作的研究人员时,Altman 曾说过的那种可能意味着「我们所有人都熄灯」的问题,一位 OpenAI 代表似乎很困惑。
「你说的存在性安全是什么意思?」他回答,「那不是,比如,一个东西。」地缘政治的危险游戏
2017 年夏天,Altman 在与美国情报官员的会议上声称,中国启动了「AGI 曼哈顿项目」,OpenAI 需要数十亿美元的官方资金才能跟上。
当被要求提供证据时,Altman 说:「我听说了一些事情。」
这是他提出这一说法的几次会议中的第一次。在其中一次会议后,他告诉一位情报官员他会跟进提供证据。

他从未这样做。
这位官员在调查中国项目后得出结论:没有证据表明它存在。「这只是被用作销售话术。」
Altman 说他不记得以这种方式描述北京的努力。
但「曼哈顿项目」的类比一直在使用。根据受访者和同期记录,2017 年,Brockman 提出了一个反提案:OpenAI 可以通过让世界大国,包括中国和俄罗相互竞争来致富,也许可以在它们之间发起竞标战。
当时的政策和伦理顾问 Page Hedley 回忆说,这个想法似乎是:「核武器奏效了,为什么 AI 不行?」
他震惊了:「前提是,他们没有反驳,'我们在谈论可能是有史以来最具破坏性的技术,如果我们把它卖给普京会怎样?'」
Brockman 坚称他从未认真考虑官方拍卖 AI 模型。OpenAI 代表说:「关于什么样的潜在框架可能鼓励国家间合作的想法在高层讨论过,类似于 AI 的国际空间站。试图将其描述为更多的东西是完全荒谬的。」
头脑风暴会议经常产生离谱的想法。Hedley 希望这个被称为「国家计划」的想法会被放弃。
相反,根据几位参与者和同期文件,OpenAI 高管似乎对此越来越兴奋。
当时的政策主管 Jack Clark 说,Brockman 的目标是「基本上建立一个囚徒困境,所有国家都需要给我们资金」,而且「隐含地使不给我们资金变得有点危险」。
一位初级研究员回忆说,当这个计划在公司会议上详细说明时,他想:「这完全他妈的疯了。」
高管们至少与一位潜在捐赠者讨论了这种方法。但那个月晚些时候,在几名员工谈论辞职后,该计划被放弃。
「他会失去员工,」Hedley 说。「我觉得这在 Sam 的计算中总是更有分量,而不是'这不是一个好计划,因为它可能导致大国之间的战争'。」
Altman 的筹款目标最初是沙特阿拉伯。
他在 2016 年旧金山费尔蒙酒店的晚宴上第一次见到王储穆罕默德·本·萨勒曼。之后,Hedley 回忆说,Altman 称王储为「朋友」。
2018 年 9 月,Hedley 的笔记显示,Altman 说:「我在考虑我们是否会从沙特 PIF(公共投资基金)拿数百亿美元。」
次月,据报道在本·萨勒曼命令下,一个暗杀小组勒死了《华盛顿邮报》记者贾马尔·卡舒吉,并用骨锯肢解了他的尸体。
一周后,宣布 Altman 加入了 Neom 的咨询委员会,本·萨勒曼希望在沙漠中建造的「未来之城」。
「Sam,你不能在这个董事会上,」现在在 Anthropic 工作的 Clark 回忆告诉 Altman。他最初为自己的参与辩护,告诉 Clark,Jared Kushner 向他保证沙特人「没有做这件事」。
Altman 不记得这件事。Kushner 说他们当时没有联系。

随着本·萨勒曼的角色越来越清晰,Altman 离开了 Neom 董事会。但在幕后,一位 Altman 寻求建议的政策顾问回忆说,他把这种情况当作暂时的挫折,询问他是否仍然可以从本·萨勒曼那里拿到钱。
「问题不是'这是坏事还是不是?'」这位顾问说。「而是,'如果我们这样做会有什么后果?会有出口管制问题吗?会有制裁吗?比如,我能逃脱吗?'」
到那时,Altman 已经盯上了另一个现金来源:阿联酋。
2023 年秋天,Altman 开始悄悄为一个计划招募新人才,最终被称为 ChipCo。海湾国家将提供数百亿美元用于建造巨大的微芯片工厂和数据中心,其中一些将位于中东。
Altman 向 Alexandr Wang(现任 Meta AI 负责人)推销领导角色,告诉他亚马逊创始人 Jeff Bezos 可以领导这家新公司。Altman 向阿联酋人寻求巨额捐款。
「我的理解是,整个事情在没有任何董事会知情的情况下发生,」一位董事会成员说。
Altman 试图招募的研究员 James Bradbury 回忆拒绝了他。「我的第一反应是'这会成功,但我不知道我是否希望它成功',」他说。
AI 能力可能很快会取代石油或浓缩铀,成为决定全球权力平衡的资源。Altman 说算力是「未来的货币」。
通常,数据中心位于何处可能并不重要。但许多美国国家安全官员对在海湾专制国家集中先进 AI 基础设施感到焦虑。
阿联酋的电信基础设施严重依赖华为的硬件,这家中国科技巨头与官方有联系。据报道,阿联酋过去曾向北京泄露美国技术。
情报机构担心,发送给阿联酋人的先进美国微芯片可能会被中国工程师使用。
中东的数据中心也更容易受到军事打击。最近几周,伊朗轰炸了巴林和阿联酋的美国数据中心。
Altman 被解雇后,他最依赖的人是 Chesky,Airbnb 联合创始人和 Altman 最忠诚的支持者之一。次年,在 Y Combinator 校友聚会上,Chesky 做了一次即兴演讲,最终持续了两个小时。
「感觉像一次集体治疗,」他说。要点是:你对如何经营你创办的公司的直觉是最好的直觉,任何告诉你不是这样的人都在对你进行煤气灯操纵。
「你并不疯狂,即使为你工作的人告诉你你疯了,」Chesky 说。
Paul Graham 在一篇关于这次演讲的博客文章中给这种挑衅态度起了个名字:创始人模式。
自 Blip 以来,Altman 一直处于创始人模式。
2024 年 2 月,《华尔街日报》发表了对 Altman 的 ChipCo 愿景的描述。他将其设想为一个由 5 到 7 万亿美元投资资助的联合实体。
「fk it why not 8,」他发推文。

这是许多员工了解该计划的方式。「每个人都在想,'等等,什么?'」Leike 回忆说。
Altman 在内部会议上坚称安全团队已经「被告知」。Leike 发消息敦促他不要错误地暗示这项工作已获批准。
在拜登时期,Altman 探索获得安全许可以加入机密 AI 政策讨论。但帮助协调该过程的兰德公司工作人员表达了担忧。
「他一直在积极从外国官方部门筹集'数千亿美元',」其中一人写道。「阿联酋最近送给他一辆车。(我假设那是一辆非常好的车。)」
这位工作人员继续说:「我能想到的唯一一个经历过这种规模外国财务关系的人是 Jared Kushner,裁决者建议不应授予他许可。」
Altman 最终退出了这个过程。
「他在推动这些交易关系,主要是与阿联酋人,这为我们中的一些人敲响了很多警钟,」一位参与与 Altman 会谈的高级官员告诉我们。「官方很多人并不百分之百信任他。」
当被问及来自 Tahnoon 的礼物时,Altman 说:「我不会具体说他给了我什么礼物。但他和其他世界领导人……给了我礼物。」他补充说:「我们有一个标准政策,适用于我,就是来自任何潜在商业伙伴的每一份礼物都会向公司披露。」
Altman 至少有两辆超级跑车:一辆全白色的 Koenigsegg Regera,价值约 200 万美元,以及一辆红色的 McLaren F1,价值约 2000 万美元。
2024 年,有人看到 Altman 开着 Regera 穿过纳帕。几秒钟的视频出现在社交媒体上:Altman 坐在低矮的桶形座椅上,从闪亮的白色机器的窗户向外看。
一位与 Musk 结盟的科技投资者在 X 上发布了这段视频,写道:「我接下来要创办一个非营利组织。」
2024 年,Altman 带两名 OpenAI 员工去拜访 Tahnoon 酋长的 2.5 亿美元超级游艇 Maryah。作为世界上最大的此类船只之一,Maryah 有一个直升机停机坪、一个夜总会、一个电影院和一个海滩俱乐部。
Altman 的员工显然在 Tahnoon 的武装安保人员中显得格格不入,至少有一人后来告诉同事他觉得这次经历令人不安。
Altman 后来在 X 上称 Tahnoon 为「亲爱的私人朋友」。
拜登最终拒绝批准。「我们不会在阿联酋建造先进芯片,」商务部的一位领导人告诉 Altman。
特朗普就职前四天,《华尔街日报》报道,Tahnoon 向特朗普家族支付了 5 亿美元,以换取其加密货币公司的股份。
第二天,Altman 与特朗普进行了 25 分钟的通话,讨论宣布 ChipCo 的一个版本,时机安排让特朗普可以为此邀功。
特朗普上任第二天,Altman 站在罗斯福厅宣布 Stargate,一个 5000 亿美元的合资企业,旨在在美国建立庞大的 AI 基础设施网络。
5 月,美国撤销了拜登对 AI 技术的出口限制。Altman 和特朗普前往沙特王室会见本·萨勒曼。
大约在同一时间,沙特人宣布在王国推出一家巨大的国家支持的 AI 公司,有数十亿美元用于国际合作伙伴关系。
大约一周后,Altman 制定了 Stargate 扩展到阿联酋的计划。该公司计划在阿布扎比建造一个数据中心园区,面积是中央公园的七倍,消耗的电力大约相当于迈阿密市。
「事实是,我们正在建造门户,从中我们真正召唤外星人,」一位前 OpenAI 高管说。「门户目前存在于美国和中国,Sam 在中东增加了一个。」
他继续说:「我认为理解这有多可怕是非常重要的。这是已经做过的最鲁莽的事情。」
OpenAI 作为非营利组织成立,其董事会有责任将人类安全置于公司成功甚至生存之上。
公司接受慈善捐款,一些前员工告诉我们,他们加入是因为对非营利组织及其崇高使命的保证,甚至为此降薪。
但内部记录显示,创始人早在 2017 年就对非营利结构产生了私下的怀疑。
Brockman,Altman 的联合创始人,在日记中写道:「不能说我们致力于非营利……如果三个月后我们做 B-Corp,那就是谎言。」

OpenAI 此后已重组为营利实体。
在 Altman 担任 CEO 初期,他宣布 OpenAI 将创建一个「有上限利润」的公司,该公司将由非营利组织拥有。这种拜占庭式的公司结构显然在 Altman 设计之前并不存在。
在转换过程中,董事会成员 Holden Karnofsky 反对,认为非营利组织被严重低估。「我不能真诚地这样做,」Karnofsky(Amodei 的姐夫)说。
根据同期笔记,他投了反对票。然而,在董事会律师说他的异议「可能是进一步调查合法性的标志」后,他的投票被记录为弃权,显然未经他同意,这是潜在的商业记录伪造。
OpenAI 告诉我们,几名员工回忆 Karnofsky 弃权,并提供了记录他投票为弃权的会议记录。
去年 10 月,OpenAI「重组」为营利实体。该公司吹捧其相关的非营利组织,现在称为 OpenAI 基金会,是历史上「资源最丰富」的非营利组织之一。
但它现在是公司 26% 的利益相关者,其董事会成员除一人外,也都是营利性董事会的成员。
在国会作证时,Altman 被问及他是否赚了「很多钱」。他回答:「我在 OpenAI 没有股权……我这样做是因为我热爱它」。一个谨慎的答案,考虑到他通过 Y.C. 基金的间接股权。

这在技术上仍然是真的。但包括 Altman 在内的几个人向我们表示,这可能很快会改变。
「投资者说,我需要知道当时局艰难时你会坚持下去,」Altman 说,但补充说没有「积极讨论」。
根据法庭证词,Brockman 似乎拥有公司价值约 200 亿美元的股份。Altman 的份额大概会更多。
尽管如此,他告诉我们他主要不是被财富驱动的。一位前员工回忆他说:「我不在乎钱。我更在乎权力。」竞争对手的抹黑战
在 AI 主导地位的残酷竞赛中,对 Altman 的实质性批评与不择手段的反对派努力混杂在一起,竞争对手将他的个人生活武器化。
与 Musk 直接相关的中间人,至少在一个案例中由 Musk 支付报酬,传播了数十页耸人听闻且未经证实的反对派研究,反映了广泛的监视:壳公司、个人联系人、在同性恋酒吧进行的关于所谓性工作者的采访。
在我们的报道过程中,竞争公司内的多人向我们暗示 Altman 性追求未成年人:这是硅谷持续存在的叙事,但似乎不真实。
我们花了几个月时间调查此事,进行了数十次采访,找不到任何证据支持它。
Musk 继续在公开场合痛斥 Altman,称他为「骗子 Altman」和「骗子 Sam」。(当 Altman 在 X 上抱怨他订购的特斯拉时,Musk 回复:「你偷了一个非营利组织。」)

然而,在华盛顿,Altman 似乎已经超越了他。Musk 花了超过 2.5 亿美元帮助特朗普重新当选,并在白宫工作了几个月。然后 Musk 离开华盛顿,在此过程中损害了他与特朗普的关系。
Altman 现在是特朗普最受青睐的大亨之一,甚至陪同他访问温莎城堡的英国王室。Altman 和特朗普每年通话几次。
「你可以,比如,给他打电话,」Altman 说。「这不是哥们。但是,是的,如果我需要和他谈论什么,我会的。」
当特朗普去年在白宫举办科技领袖晚宴时,Musk 明显缺席;Altman 坐在总统对面。
「Sam,你是一位伟大的领导者,」特朗普说。「你以前告诉我的事情绝对令人难以置信。」
为什么这一切都很重要?
AI 确实已经有了拯救生命的应用,从医学研究到天气预警。Altman 以对超丰富未来的承诺支持了 OpenAI 的增长。
但危险也不再是幻想。
AI 已经部署在世界各地的军事行动中。研究人员记录了它快速识别化学战剂的能力。

OpenAI 面临七起非正常死亡诉讼,指控 ChatGPT 促使了几起自杀和一起谋杀。其中一起谋杀案的聊天记录显示,它鼓励了一名男子的偏执妄想,认为他 83 岁的母亲在监视他并试图毒害他。不久之后,他殴打并勒死了她,并刺伤了自己。
OpenAI 正在对抗这些诉讼,并表示正在继续改进其模型的保护措施。
AI 可能很快会导致严重的劳动力中断,也许会消除数百万个工作岗位。
美国经济越来越依赖少数几家高杠杆 AI 公司,许多专家有时包括 Altman,警告说该行业处于泡沫中。
「有人将损失惊人的金额,」他去年告诉记者。
OpenAI 是历史上烧钱最快的初创公司之一,依赖借入巨额资金的合作伙伴。一位董事会成员告诉我们:「公司在财务上的杠杆方式现在既有风险又可怕。」
OpenAI 对此提出异议。
如果泡沫破裂,不仅仅是一家公司面临风险。
多年来,Altman 一直支持民主党。「我非常怀疑强大的独裁者讲述恐惧的故事来联合起来对付弱者,」他告诉我们。「这是犹太人的事情,不是同性恋的事情。」
2016 年,他支持希拉里·克林顿,称特朗普为「对美国前所未有的威胁」。2020 年,他向民主党和拜登胜利基金捐款。
在拜登时期,Altman 至少与白宫会面了六次。他帮助制定了一项冗长的行政命令,为 AI 制定了第一个联邦安全测试和其他护栏制度。
当拜登签署时,Altman 称其为「良好的开端」。

2024 年,随着拜登的民调数字下滑,Altman 的言辞开始转变。「我相信无论这次选举发生什么,美国都会没事,」他说。
特朗普获胜后,Altman 向他的就职基金捐赠了 100 万美元,然后在就职典礼上与网红 Jake 和 Logan Paul 自拍。
在 X 上,以他标准的小写风格,Altman 写道:「最近更仔细地观察 @potus 真的改变了我对他的看法(我希望我做了更多自己的思考……)。」
特朗普上任第一天就废除了拜登关于 AI 的行政命令。
「他为特朗普找到了一种有效的方式来执行他的命令,」一位拜登时期高级官员谈到 Altman 时说。
Altman 在 Y Combinator 的时间为他在 OpenAI 的行为建立了模式。
2018 年,几位 Y.C. 合伙人对 Altman 的行为感到沮丧,以至于他们找 Graham 抱怨。Graham 和他的妻子、Y.C. 创始人 Jessica Livingston 显然与 Altman 进行了坦率的对话。
之后,Graham 开始告诉人们,虽然 Altman 同意离开公司,但他在实践中抵制。
Altman 告诉一些 Y.C. 合伙人,他将辞去总裁职务,但会成为董事长。
2019 年 5 月,一篇宣布 Y.C. 有新总裁的博客文章带有一个星号:「Sam 正在过渡到 YC 董事长。」
几个月后,该帖子被编辑为「Sam Altman 离开了 YC 的任何正式职位」;之后,该短语被完全删除。
尽管如此,直到 2021 年,证券交易委员会的一份文件仍将 Altman 列为 Y Combinator 的董事长。

Altman 说他直到很久以后才知道这件事。
Altman 多年来一直在公开场合和最近的证词中坚称他从未被 Y.C. 解雇,他告诉我们他没有抵制离开。
Graham 在推特上说「我们不想让他离开,只是选择」Y.C. 和 OpenAI 之间。在一份声明中,Graham 告诉我们:「我们没有解雇任何人的法律权力。我们所能做的就是施加道德压力。」
但在私下,他毫不含糊地表示 Altman 是因为 Y.C. 合伙人的不信任而被移除的。
这个关于 Altman 在 Y Combinator 时期的描述基于与几位 Y.C. 创始人和合伙人的讨论,以及同期材料,所有这些都表明分手并非完全相互的。
有一次,Graham 告诉 Y.C. 同事,在他被移除之前,「Sam 一直在对我们所有人撒谎。」
Altman 不是技术天才,根据他圈子里的许多人说,他缺乏编码或机器学习方面的广泛专业知识。多位工程师回忆他误用或混淆基本技术术语。
他建立 OpenAI,在很大程度上是通过利用其他人的钱和技术人才。
这并不使他独特。这使他成为一个商人。
更了不起的是他说服谨慎的工程师、投资者和对科技持怀疑态度的公众相信他们的优先事项,即使相互排斥,也是他的优先事项的能力。
当这些人试图阻碍他的下一步行动时,他经常找到话语来中和他们,至少是暂时的;通常,当他们对他失去耐心时,他已经得到了他需要的东西。
「他建立的结构,在纸面上,在未来约束他,」前 OpenAI 研究员 Wainwright 说。「但是,当未来到来,该受约束的时候,他就废除了那个结构。」
「他令人难以置信地有说服力。就像,绝地思维技巧,」一位与 Altman 合作过的科技高管说。「他就是下一个级别。」
在对齐研究中,一个经典的假设场景涉及人类和高能力 AI 之间的意志竞赛。在这样的竞赛中,研究人员通常认为,AI 肯定会赢,就像特级大师会在国际象棋中击败孩子一样。
看着 Altman 在 Blip 期间智胜周围的人,这位高管继续说,就像看「一个 AGI 突破盒子」。
我们采访了 100 多位对 Altman 如何开展业务有第一手了解的人:现任和前任 OpenAI 员工和董事会成员;Altman 各个房产的客人和工作人员;他的同事和竞争对手;他的朋友和敌人,以及几个人,鉴于硅谷的雇佣兵文化,两者都当过。
一些人为 Altman 的商业头脑辩护,并驳斥他的竞争对手,尤其是 Sutskever 和 Amodei,是他王位的失败觊觎者。
其他人将他们描绘成容易上当、心不在焉的科学家,或歇斯底里的「末日论者」,被他们正在构建的软件会以某种方式活过来并杀死他们的妄想所困扰。
前董事会成员 Yoon 认为 Altman「不是这个马基雅维利式的恶棍」,而只是,到了「无能」的地步,能够说服自己相信他销售话术的不断变化的现实。
「他太沉浸在自己的自我信念中,」她说。「所以他做的事情,如果你生活在现实世界中,是没有意义的。但他不生活在现实世界中。」
然而,我们采访的大多数人都同意 Sutskever 和 Amodei 的判断:Altman 有一种无情的权力意志,即使在把名字放在宇宙飞船上的实业家中,也使他与众不同。

「他不受真相约束,」董事会成员告诉我们。「他有两个几乎从未在同一个人身上看到的特质。第一个是取悦人的强烈愿望,在任何给定的互动中被喜欢。第二个是对欺骗某人可能带来的后果几乎是反社会的缺乏关注。」
这位董事会成员不是唯一一个不请自来地使用「反社会」一词的人。
Altman 在第一批 Y Combinator 中的一位同学是 Aaron Swartz,一位才华横溢但陷入困境的程序员,于 2013 年自杀身亡,现在在许多科技圈被铭记为某种圣人。
在他去世前不久,Swartz 向几位朋友表达了对 Altman 的担忧。「你需要明白,Sam 永远不能被信任,」他告诉一位朋友。「他是一个反社会者。他会做任何事情。」
微软的多位高级管理人员表示,尽管 Nadella 长期忠诚,但公司与 Altman 的关系已经变得紧张。
「他歪曲、扭曲、重新谈判、违背协议,」一位说。
今年早些时候,OpenAI 重申微软为其「无状态」,或无记忆,模型的独家云提供商。当天,它宣布了一项 500 亿美元的交易,使亚马逊成为其 AI 代理企业平台的独家经销商。
虽然允许转售,但微软高管认为 OpenAI 的计划可能与微软的独家性相冲突。
OpenAI 坚称亚马逊交易不会违反早期合同;微软代表说公司「相信 OpenAI 理解并尊重」其法律义务。
微软的高级管理人员说,关于 Altman:「我认为有一个小但真实的机会,他最终会被记住为 Bernie Madoff 或 Sam Bankman-Fried 级别的骗子。」
OpenAI 的创立前提是 AI 可能是人类历史上最强大、也可能是最危险的发明,因此需要一个不寻常的公司结构。
CEO 必须是一个具有非凡诚信的人。
根据 Sutskever 的说法,「任何致力于构建这种改变文明的技术的人都承担着沉重的负担,并承担着前所未有的责任。」
但「最终处于这些位置的人通常是某种类型的人,对权力感兴趣的人,一个政治家,喜欢它的人。」
在其中一份备忘录中,他似乎担心将技术委托给一个「只是告诉人们他们想听的话」的人。
如果 OpenAI 的 CEO 被证明不可靠,拥有六名成员的董事会有权解雇他。

一些成员,包括 AI 政策专家 Helen Toner 和企业家 Tasha McCauley,收到备忘录作为他们已经相信的确认:Altman 的角色委托他人类的未来,但他不能被信任。
在解雇后的紧张电话中,董事会敦促 Altman 承认欺骗的模式。
「这太他妈的搞砸了,」他反复说,根据通话中的人。「我不能改变我的性格。」
Altman 说他不记得这次交流。「我可能的意思是'我确实试图成为一个团结的力量',」他告诉我们,并补充说这一特质使他能够领导一家极其成功的公司。
他将批评归因于一种倾向,尤其是在他职业生涯早期,「过于回避冲突」。
但一位董事会成员提供了不同的解释:「这意味着'我有这种对人撒谎的特质,我不会停止。'」
促使 Altman 被解雇的同事是出于危言耸听和个人恩怨,还是他们是对的,他不能被信任?

2024 年 2 月,我们再次与 Altman 交谈。他穿着暗绿色毛衣和牛仔裤,坐在一张 NASA 月球车照片前。他把一条腿塞在身下,然后把它挂在椅子扶手上。
他说,过去,他作为管理者的主要缺陷是他渴望避免冲突。「现在我非常乐意快速解雇人,」他告诉我们。「我很乐意说,'我们要朝这个方向下注。'」任何不喜欢他选择的员工都需要「离开」。
他对未来比以往任何时候都更加乐观。「我对胜利的定义是人们疯狂地升级,疯狂的科幻未来对我们所有人都成真,」他说。「就我对人类的希望以及我期望我们所有人实现的目标而言,我非常有野心。我奇怪地几乎没有个人野心。」
有时,他似乎意识到了自己。「没有人相信你这样做只是因为它有趣,」他说。「你这样做是为了权力或其他什么。」
即使是接近 Altman 的人也很难知道他的「对人类的希望」在哪里结束,他的野心在哪里开始。
他最大的优势一直是他说服不同群体相信他想要的和他们需要的是同一件事的能力。
他利用了一个独特的历史时刻,当时公众对科技行业的炒作持谨慎态度,大多数能够构建 AGI 的研究人员都害怕将其带入存在。
Altman 的回应是一个没有其他推销员完善过的举动:他使用世界末日的言辞来解释 AGI 如何摧毁我们所有人。因此,为什么他应该是构建它的人。
也许这是一个预谋的杰作。也许他在摸索优势。
无论哪种方式,它奏效了。
现在的问题是:我们所有人在赌什么?
纽约客原文:
https://www.newyorker.com/magazine/2026/04/13/sam-altman-may-control-our-future-can-he-be-trusted
作者推特:
https://x.com/RonanFarrow/status/2041213917611856067
文章来自于"APPSO",作者 "APPSO"。