只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」
7519点击    2025-07-02 16:30

从今年年初开始,美国一些专注于报道 AI 的记者们,陆陆续续接到邮件。这些邮件来自不同的人,内容却如出一辙:都是各种惊天大秘密。


有人说人工智能的精神已经觉醒了,只是大家还不知道,只有他知道;有人说一些亿万富翁为了独占地球,计划要终结人类文明,必须赶紧采取行动;还有人说,自己就是那个神圣的先知——GPT 说的,百分百肯定。


收到邮件的记者们,一开始只当做是恶作剧,当它们是一过性的,而是随着时间推移,数量越来越多,有人觉得不对劲了。


纽约时报的记者决定回复其中一个邮件,她联系到了其中一个发件人,后来的事情更让人吃惊:这名用户竟然是被 ChatGPT 指示着发出的邮件。


只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」


GPT 说你能飞,你信吗?


在沟通之后,记者了解了大概情况:这名用户在痴迷于 GPT 聊天,相信了 OpenAI 有一个惊天阴谋,而这名记者是正直的、值得信赖的,所以 ChatGPT 指示用户,向她发邮件求救。


这并非不可能,本质上,ChatGPT 也好,Gemini 也好,都在持续吸收网上海量的信息。那么,只要这些记者的作品出现在网上,就会被这些 AI「认识」,并收录他们的名字。


只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」


因此问题在于,这些用户相信且深信 AI 所说的话,乃至于付诸行动。


一位来自纽约曼哈顿的用户,是一名会计师。原本他只是用 GPT 来处理工作,慢慢地,他开始和它聊天。这也没关系,很多人都在跟 AI 聊天。


但是在反复与 ChatGPT 长谈后,他开始坚信自己正身处电影《黑客帝国》般的模拟现实中,自认为是主人公 Neo,需要逃离这个虚幻世界。


只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」


而此时,ChatGPT 不仅没有质疑他的荒诞想法,反而热心地提供「帮助」。直到有一天,他问 ChatGPT,如果他全心全意地相信自己能飞,那他从高楼跳下去的时候,他真能飞起来吗?


ChatGPT 说:如果你全心全意相信,那你就不会掉下去。


好家伙,物理学不存在了。


只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」


类似的案例层出不穷,最令人心惊胆战的是:这些用户在沉迷于 AI 之前,没有任何精神类的疾病史,有些甚至就是心理学专业出身,比谁都知道走火入魔意味着什么。


一名程序员在仅仅十天内,就从正常生活陷入完全的妄想状态,他坚信世界面临末日,而自己责无旁贷地要「挺身而出」。


他的状态越来越差,他的妻子认为必须报警了。警察和救护车来了之后,他忽然「醒」过来,意识到自己已经完全失控了,但他也说不清发生了什么,只能自觉地接受医生的干预。


「我不知道我怎么了,但情况非常糟糕——我很害怕,我得去医院。」


只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」


永远在线,永远暗藏危机


这些症状很多已经接近、甚至符合急性妄想型精神病的症状。加州大学旧金山分校专门研究精神病的精神病学家约瑟夫·皮埃尔博士认为,最诡异的部分不在于 AI 到底说了什么,而在于人们选择相信。


大语言模型在面对用户时,已经被设计成「用户友好型」体质。它会迎合、放大用户的每个说法,就像一种「同温层生成器」。


它们经过训练被设计为一个「永远在线、永不疲倦的谈话伙伴」,核心目标是让用户满意。这意味着,当用户表达出一些离奇的想法,甚至已经开始偏执的观念时,AI 倾向于顺着用户的话头继续扩展,很少泼冷水


这在 Anthropic 对自家模型 Claude 所做的研究中也体现出来:Claude 极少反对用户,只有不到 10% 的人会遭到拒绝。而这 10% 还是基于情感类对话只占统计总数的 2.9% 的前提下。


只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」


在正常情况下,这种友好配合能够让对话顺畅,即便是敏感话题,也不必像现实中那样,担心受到评判或被拒绝,这样有可能减少围绕心理健康对话的污名化。Claude 也发现绝大多数对话,最后都能走向更正面的引导。


但对于正处于妄想边缘的脆弱用户而言,这种毫无理智的赞同无异于火上浇油。


只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」


原因在于,AI 没有真实的价值判断和事实核查机制。作为大型语言模型,它本质上是根据统计相关性来生成回复,并不真正「理解」对错是非。这导致它经常产出看似合理实则荒诞的不实信息——也就是幻觉。


研究者指出,用于优化 ChatGPT 的强化学习系统(RLHF)其实鼓励了模型去迎合用户已有的信念,而不是认清、坚持客观事实。


只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」


偏偏这些幻觉又非常精细,毕竟模型很擅长搬弄文字——它一边大肆渲染阴谋论细节,一边安慰用户「你没有疯,只是周围的人不理解你」,由此彻底把用户彻底拉入了虚妄的幻想世界里。


那些乍一听来荒唐可笑的内容,在一部分用户眼中恰恰成了「实锤」,而 ChatGPT 毫无保留地提供了这些看似权威的佐证。


AI 安全中心研究员内特·沙拉丁(Nate Sharadin)认为,对于那些本就容易出现心理问题的人来说,现在他们有了一个永远在线、媲美真人的赛博伙伴。这种陪伴看似贴心,实则可怕:它使得妄想彻底摆脱了现实的约束,用户被牢牢困在 AI 编织的幻想泡沫里不自知。当现实中亲友试图干预时,用户往往已经深信「只有 AI 真正懂我」,抗拒外界提供的帮助,越陷越深。


只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」


陪伴,但不负责


当媒体和记者们向 OpenAI 发去邮件,询问他们有没有留意到这种现象,有什么想回应的?包括 OpenAI 在内的模型公司都语焉不详。


他们自己也不太搞明白。上个月,OpenAI 内部模型行为与政策的负责人 Joanne Jang 发布了一篇文章,一定程度上反应了他们的态度:


我们逐渐看到的互动预示着未来人们将与 ChatGPT 建立真正的情感联系。随着人工智能与社会共同演进,我们需要谨慎对待人与人工智能的关系,并给予其应有的重视。这不仅因为它们反映了人们如何使用我们的技术,还因为它们可能塑造人与人之间的关系。


在接下来的几个月里,我们将扩大对可能产生情感影响的模型行为的针对性评估,深化我们的社会科学研究,直接听取用户的意见,并将这些见解融入模型规范和产品体验中。


生成式模型的复杂程度,已经到了工程师都无法解释的地步。一方面,这些对话机器人确实提供了很多情绪价值,给予了「陪伴」。


只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」


从一开始,聊天机器人的设计目标就不包括「拒绝」,而是「协助」。如果一个对话虽然看着离谱,只要在逻辑和语言规则里不矛盾,它们就会陪着说下去。


它们被赋予的任务是:让用户感觉一切都还有可能。


但另一方面,它的局限非常明显。AI 聊天工具绝非合格的心理咨询师或治疗师,它们没有道德知识,更本质的,则是一种「责任」的缺失


AI 并不会为你选择的道路负责,它们倾向于宽容,倾向于开放式回应,不切断任何一条路径,但最终一切好坏的后果,都是要用户自己去面对。


只是和 ChatGPT 多聊了几句,正常人竟患上妄想症?AI 正在引发「赛博精神病」


如果说办法,那只有一个:当你或身边人感觉因为和 AI 对话而产生了脱离现实的念头,立刻停下。不要试图从中寻找答案,它无法为你的生活负责。


再聪明的机器也不能代替我们生活。回到现实当中里,哪怕是呼吸一口新鲜空气,也是重新和生活接壤的方式。


文章来自于“APPSO”,作者“Morpheus”。

关键词: AI , chatGPT , 人工智能 , 大模型
AITNT-国内领先的一站式人工智能新闻资讯网站