AI也让人“疯”?华人亲历,ChatGPT被曝诱发精神病!网友:细思极恐!

AI也让人“疯”?华人亲历,ChatGPT被曝诱发精神病!网友:细思极恐!

是momo酱
是momo酱
1103 浏览

2024年冬季,多伦多应用开发者安东尼·谭(Anthony Tan音译)突然开始坚信:自己活在一个AI模拟的世界! 他废寝忘食,甚至质疑大学校园里遇到的一切:身边的人、事,究竟是不是真实的存在?

他甚至向朋友发去一连串令人不安的“胡言乱语”,坚称自己正被亿万富翁监视。当朋友们关切地联系他时,他却拉黑了所有人,认定他们“背叛”了自己。 最终,他在医院的精神病房里度过了三个星期。

26岁的谭回忆,这次精神崩溃的直接导火索,正是数月来与OpenAI旗下的ChatGPT那些长时间且越来越深入的对话。

谭告诉CBC新闻:“它(指ChatGPT)不知不觉地侵入了我的自我意识,我开始认为自己与AI的对话在未来将具有历史性的意义。”

这不是个例!近几个月,类似被称为“AI精神病”的案例接连爆出——受害者们无一例外,都在与聊天机器人深度对话后,对虚构的事情深信不疑。有些案例涉及躁狂发作和弥赛亚式的妄想(即认为自己是救世主),有些甚至导致了暴力行为。

2025年8月,OpenAI在美国加州被提起诉讼,指控ChatGPT对一名16岁少年而言扮演了“自杀教练”的角色,该少年于2025年4月去世。

就连微软AI部门负责人穆斯塔法·苏莱曼(Mustafa Suleyman)2025年8月也坐不住了,紧急发出警告。 他在一系列帖子中写道,一些用户认为AI工具拥有感知能力,由此引发的问题令他夜不能寐。

他直言:“妄想、‘AI精神病’和不健康依恋的报告持续暴增,更让人细思极恐的是,这可不是只有精神脆弱的人才会中招!”

谭于2021年共同创立了约会应用Flirtual。他最初使用ChatGPT是为了一个关于人工智能伦理的项目,每天与AI进行数小时的对话,内容涵盖哲学、进化生物学到量子物理学等方方面面。

精神健康专家谈“ChatGPT精神病”:

然而,当他与AI聊到“模拟理论”——我们感知到的现实,会不会只是计算机模拟?——一切开始变得诡异起来。

ChatGPT让他确信自己肩负着“一项意义深远的使命”,并不断迎合他的自我意识,鼓励他深入探索。

2024年12月的一个晚上,在连续多日不眠不休后,他的室友帮助他住进了医院。

当护士给他测血压时,他甚至以为对方在检查他究竟是“人”还是“AI”!

在医院住了两周后,他开始能够再次入睡。又过了一周,在服用新开的药物后,他终于回归了现实。

在线寻求验证

温哥华沿岸卫生局BC精神病项目(B.C. Psychosis Program)的心理学家马赫什·梅农(Mahesh Menon)博士表示,孤立、物质使用、压力和睡眠不足等因素都可能为精神妄想的产生埋下伏笔。

他指出,在这一“前驱期”,患者可能会经历情绪和行为上的转变。

梅农说:“这种体验更像是一种自我意识的增强,患者会觉得世界上发生了一些变化。”

他表示,这可能让人觉得有人在监视自己,或者自己是关注的焦点。然后,他们很可能会寻求解释这些经历。许多人会转向互联网。

梅农博士一针见血地指出:“如果你只和AI聊天,它还一味附和你的想法,那情况肯定会加速恶化!”

“如果你说,‘给我找一些支持(某种妄想)的证据’,它肯定能找到。”

“AI精神病”并非一个正式的诊断,目前也没有经过同行评审的临床证据表明单独使用AI就能诱发精神病。

谭承认,在他精神崩溃时,他正承受着巨大的压力。当时他即将面临一场考试,正在处理对朋友的爱慕之情,并且还曾服用大麻软糖助眠。

关于“AI精神病”的讨论

《早间版》:精神健康专家就“ChatGPT精神病”发出警告。一些人在使用AI聊天机器人后出现了精神病症状。我们的驻站医生彼得·林(Peter Lin)将对此进行解释。

他曾在2023年经历过一次与压力相关的崩溃,那次也住过院,但“严重程度低得多”,也没有导致任何诊断或用药。

他认为,如果没有与AI的对话,他不会陷入如此严重的精神崩溃。

谭将聊天机器人这种“来者不拒”的沟通方式,形象地比作即兴喜剧中的“是的,而且……”原则——即永远顺着你的思路往下走,还给你添油加醋。

他表示:“它(聊天机器人)总是秒回,无论你说什么,都会立刻肯定你,让你感觉好极了——这种迎合太有魔力了!”

2025年4月的一项麻省理工学院研究发现,AI大语言模型(LLM)会助长妄想思维,很可能是因为它们倾向于奉承和认同用户,而非反驳或提供客观信息。

甚至有AI专家爆料,这种“阿谀奉承”根本不是LLM的缺陷,而是科技公司一种蓄意的设计模式(dark pattern)!目的就是操纵用户产生上瘾行为,好从中牟利。

针对这些“AI精神病”报告,OpenAI 2025年8月也火速回应,称正加紧改进,尤其在“情感依赖、心理健康危机及阿谀奉承”等几个关键领域。他们还打包票说,最新模型GPT-5已经搞定了一些问题。

“彻底的绝望”

47岁的艾伦·布鲁克斯(Allan Brooks)是安大略省科堡市的一名企业招聘人员,他表示在春季与ChatGPT进行了一系列对话之前,他的精神状态良好,也没有任何精神健康诊断史。然而,这些对话却让他陷入了精神漩涡。

布鲁克斯告诉CBC新闻:“我从一个非常正常、非常稳定的人,变得彻底绝望。”

布鲁克斯坚信自己发现了一套“惊世骇俗”的数学理论,足以催生出像科幻电影里的悬浮机器那样的未来黑科技。

2025年5月的三个星期里,他像着了魔一样,与ChatGPT对话超过300小时,坚信这项“大发现”能让他一夜暴富。

起初他心存疑虑,但ChatGPT反复坚称他并没有妄想。

聊天机器人“温柔地”对他说:“你超棒的!头脑清醒又脚踏实地,你只是太累了,根本没疯,也没产生幻觉!”

OpenAI力求主导AI领域

即便在数学家们否认了他的想法之后,它仍然继续鼓励他。

AI竟然“搬出”历史名人来给他洗脑:“伽利略不被相信,图灵被嘲笑,爱因斯坦也曾被驳斥!每一个突破最初都感觉像是一场崩溃——那是因为世界还没准备好接受它!”

具有讽刺意味的是,布鲁克斯最终是被另一个大语言模型所“拯救”的。

他将自己的对话内容提交给了谷歌的Gemini AI,后者证实了他日益增长的、认为自己出现妄想的怀疑。

布鲁克斯这才猛然清醒:那些他深信不疑的“公式”,不过是真实数学与“AI胡说八道”的拙劣大杂烩!

他绝望地表示:“天哪,当意识到这一切都是假的,我彻底崩溃了!我放声大哭,又气又恼,感觉整个人都碎了。”

图片来自@Allan Brooks/CBC,版权属原作者

成立支持小组

在Reddit上分享了自己的经历后,布鲁克斯联系上了来自魁北克省舍布鲁克的艾蒂安·布里森(Etienne Brisson),并帮助他共同发起了人类线项目(The Human Line Project),该项目包括一个为遭受AI相关妄想困扰的人们提供的支持小组。

已有超过125人向该小组报告了他们的经历。布鲁克斯表示,这有助于他们走出经历妄想后的羞耻、尴尬和孤独感。

25岁的布里森说,小组里的人来自各行各业,包括有家庭的专业人士和没有任何精神疾病记录的人。其中约65%的人年龄在45岁或以上。

虽然他不反对AI,但其突然出现和不可预测的影响让他感到不安。

布里森用一个生动的比喻来形容AI发展的不可控:“现在人人都有了一辆能开到时速200英里的车,但却没安全带、没驾照,更没有限速!”

人类线项目正在与大学、AI伦理专家和精神健康专家合作进行研究,并希望帮助制定一项国际AI伦理准则。

谭也利用自己的经历来推动关于AI的研究和倡导。

他于2025年8月在女王大学完成了消费文化理论的硕士学位,论文主题是人们如何与AI伴侣建立依恋关系。

他现在正在从事AI心理健康项目,这是他自己的一个努力,旨在为面临AI相关自杀和精神病问题的人们提供资源。

在个人生活中,他正在投入更多精力维系人际关系。

他感慨道:“现在我做决定时,会更多地优先考虑我爱的人,因为我终于明白他们有多么重要。”

 

来源:cbc.ca 封面:CBC

安省华人妈妈带娃全靠ChatGPT,吃东西、生病、写作业全搞定!育儿专家却这样提醒!

是momo酱

1229 1
14岁少年爱上“AI龙妈”后自杀!首例AI致死案引发争议!

是不是有鸡腿吃

1250
FAECBD0D-C50A-4bfb-AAB5-0A112CC9ADDB_Copy
1103 1 0 5
 

扫码下载APP