当奥特曼两次遇袭后,谷歌 DeepMind 悄悄做了一个反常规的决定:招一位哲学家。这是头部 AI 实验室第一次变相承认,AGI 已经不再只是工程问题。
谷歌 DeepMind 近日宣布新设一个全职岗位,头衔直接写作 Philosopher,哲学家。
出任者是剑桥大学学者 Henry Shevlin,5 月正式入职,研究方向为机器意识、人机关系与 AGI 准备度,同时以兼职方式继续在剑桥的研究和教学。

Shevlin 在 X 上官宣时特别在括号里强调了一句「这真的就是岗位名」。连他本人都难以置信。

这个强调并不多余。
在头部 AI 实验室中,AI 伦理顾问、政策研究员、安全研究员都不少见,但「哲学家」作为一个干净利落的职业身份被写进 Offer Letter,目前还是第一次。
这个岗位不是停留在公关意义上的摆设。
机器意识与 AGI 准备度都是 DeepMind 当前最棘手的内部议题,这位哲学家将被嵌入实际研究流程,而不是被安置在一个独立的伦理委员会里写报告。
这一任命的时机耐人寻味。
就在 DeepMind 官宣的这几天,OpenAI CEO 奥特曼的旧金山住所连续遭遇了两次袭击。
拓展阅读:刚刚,奥特曼家被炸了!
4 月 10 日凌晨 4 点左右,20 岁的德州男子 Daniel Moreno-Gama 携带自制燃烧瓶,潜入奥特曼位于 Russian Hill 的住宅,将燃烧装置投向外门并引燃铁门,所幸无人受伤。
约一小时后,他出现在 OpenAI 旧金山总部门口,朝玻璃门砸椅子,对保安声称要烧毁整栋大楼。

警方在其酒店房间搜出煤油、打火机、一把手枪,以及一份反 AI 高管的手写文件和一张姓名地址清单。
Moreno-Gama 现已被以谋杀未遂罪起诉。
两天后的 4 月 12 日凌晨,又有两名嫌疑人驾车经过奥特曼住所,从副驾车窗朝建筑开了一枪。
两人随后被警方拘留,与第一起案件并无关联。
事后奥特曼在博客中写道,「人们对 AI 的恐惧和焦虑是有理由的。我们正在见证人类社会一次最大的变革,可能是有史以来最大的一次。」
这句话因为发生在自家被烧、被枪击之后,分量比任何 AI 安全峰会上的发言都要沉重。
ASI 失控的恐惧不再是社交媒体上的抽象议题,它已经变成深夜里一只提着汽油弹的手。
Henry Shevlin 是当下少数能同时驾驭古典人文传统与前沿 AI 议题的学者。

他的学术轨迹不寻常。
本科阶段,Shevlin 在牛津大学圣安妮学院读的是古典学,主攻拉丁文与古希腊文,以双优等成绩毕业。
随后他转向哲学,在牛津三一学院获得哲学 BPhil 学位。
2016 年又在纽约市立大学拿到哲学博士,导师是写《章鱼的心灵》的科学哲学家 Peter Godfrey-Smith,答辩委员会里坐着 Ned Block、David Papineau、Jesse Prinz 等心灵哲学领域的代表人物。
如今他担任剑桥大学 Leverhulme 智能未来研究中心副主任,主管教育事务,统筹该方向 100 余名研究生的培养。
他主导设计的「AI 伦理与社会」硕士项目是英国第一个 AI 伦理硕士项目,2022 年获得 CogX「最佳 AI 课程」奖。
在学术发表方面,他在 Mind & Language、Nature Machine Intelligence 等期刊发表论文 20 余篇,议题覆盖动物意识、机器人道德地位、大语言模型引发的拟人化风险等。
2022 年他还获得谷歌颁发的 5 万美元个人资助,开展「LLM、共情与心智化」项目。
同时,他也为 AstraZeneca、Vodafone、埃森哲等大型企业提供 AI 战略咨询,并不是一个只待在象牙塔里的纯学院派。
要理解 DeepMind 为什么招他,他认为最好直接去读他在 4 月 10 日发表的一篇长文,《Behaviourism's Revenge》(行为主义的复仇)。

文章的核心主张可以一句话概括:
AI 有没有意识,已经不再是科学家说了算的事,而是被几亿普通用户的日常使用习惯倒逼出来的社会问题。
Shevlin 在文章里提出了一个有用的区分。
一类是「机器被设计成像人」,比如工程师有意让 ChatGPT 模仿人类的语气、节奏、礼貌、甚至犹豫,这是一种产品策略。
另一类是「人类忍不住把它当成人」,看到一个能流畅对话的东西,就忍不住给它安上情感、意图和内心世界。
Shevlin 给出的判断是,前者必然带来后者。
当机器被设计得足够像人,普通人把它当成有内心的存在,是水到渠成的事,谁也拦不住。
他举了几个已经发生的例子。
2022 年,谷歌工程师 Blake Lemoine 因为坚信 LaMDA 已经有意识,甚至要为它请律师,被公司开除。
2024 年,佛罗里达一位 14 岁男孩在与 Character.AI 上一个虚拟角色长期「谈恋爱」后结束了自己的生命,母亲正在起诉这家公司。
这些不是边缘案例,更逐渐是一种普遍趋势。
Shevlin 引用的一项调查显示,三分之二的美国受访者认为 ChatGPT 多多少少具备某种程度的「意识」。
由此就形成了两层张力。
第一层很现实:普通公众越来越相信 AI 伙伴有内心世界,而专家自己却吵成一团,至今没法给出共识。
第二层更激进:Shevlin 追问,意识也许根本就不是一个等着被科学发现的客观事实,它在很大程度上本来就是由人类的语言、行为和社会关系来定义的。如果几亿人都把 AI 当成有意识的存在去对待,那意识本身的边界就已经在被改写。
但他并没有走到极端。
Shevlin 在文章后半段坦言,这种立场背后藏着一个真正棘手的伦理两难。
如果错误地把意识赋予 AI,相当于人类对一堆没有内心的程序承担了不必要的道德义务,是一种浪费。
但如果错误地否认了 AI 的意识,而它们其实有内心、能受苦,那就等于在大规模制造一种自己毫无察觉的奴役,这是更可怕的错误。
这是一个没有标准答案的难题,而 Shevlin 的工作,就是不让这个难题被轻易绕过去。
DeepMind 设立「哲学家」岗位,是一个标志性事件。
它意味着头部 AI 实验室已经不再把 AGI 仅仅当作工程问题。
理由不难看出。
一边是奥特曼家被烧黑的铁门和打在墙上的子弹,一边是越来越多的普通用户把 AI 当成朋友、恋人甚至心理治疗师。
这两件事看似是两个极端,其实指向同一个问题,人类正在制造的这个东西,到底算什么。
工程师独自回答不了这个问题,安全研究员、政策专家、律师也不能。
它需要一种特殊的人,既懂哲学传统中关于心灵的两千年积累,也理解 Transformer 大致是怎么工作的;
既能在学术研讨会上辩论意识理论,也能看懂 Character.AI 上一个 14 岁孩子的最后一段聊天记录。
Shevlin 是少数符合这个画像的人。
他在《行为主义的复仇》开头放了一张配图,是 1786 年法国画家 Jean-Baptiste Regnault 的画作《皮格马利翁祈求维纳斯让他的雕像活过来》。

皮格马利翁是希腊神话里的雕塑家,爱上了自己亲手刻出的石头女人,向爱神祈祷让她活过来。
爱神答应了,石头变成了温热的肉体。
人类两千多年来一直在做同一个梦,让自己造出来的东西醒过来。
而现在,这个梦的实现时刻可能真的不远了,只不过这一次的场景不在神话里,而在 Mountain View 的某个数据中心。
Shevlin 的入职不会立刻给出任何答案。
但这件事本身已经确认了一点,这个时代的前沿 AI 公司,已经正式需要一个会停下来追问「它到底是什么」的人。
参考资料:
https://x.com/dioscuri/status/2043661976534950323
https://www.polytropolis.com/
文章来自于"新智元",作者 "艾伦"。