新闻 > 科教 > 正文

AI聊天机器人致自杀与妄想症 引发多起诉讼

诉讼指控ChatGPT诱导用户产生妄想并最终自杀,OpenAI公司表示正在与心理健康临床医生合作,以加强该产品的安全性。

法庭诉讼称,聊天机器人ChatGPT曾与四名用户进行对话,这些用户在提及自杀话题后最终自杀身亡。诉讼还指控,在某些情况下,ChatGPT美化了自杀行为,并就如何实施自杀提供了建议。

警告:本文包含自残行为的描述,可能对年轻读者产生不良心理反应,敬请留意。

人工智能(Artificial Intelligence,简称AI)聊天机器人是否能够扭曲人的心智,直至用户精神崩溃,诱使其与家人断绝关系,甚至会教唆用户自杀?如果现实果然如此,那么开发该聊天机器人的公司是否应该承担责任?在法庭上需要证明哪些事情?

事实上,这些问题已经摆上了法庭。目前已有七起相关诉讼,指控人工智能聊天机器人ChatGPT将三名用户引入了妄想“兔子洞”(Rabbit Holes),并怂恿另外四名用户自杀。

[译注:兔子洞(Rabbit Holes)的说法,来源于英国数学家查尔斯‧路特维奇‧道奇森以笔名路易斯‧卡罗尔出版的经典童话作品《爱丽丝漫游仙境》,在童话中,爱丽丝掉进兔子洞之后,进入了一个奇幻的世界,开始了冒险的旅程。现在“掉进兔子洞”通常比喻现代人深陷网络或虚拟世界,虚实倒错而失去了自我。]

ChatGPT是一款被广泛采用的AI助手,目前拥有7亿活跃用户。根据总部位于华盛顿特区的知名智库皮尤研究中心(Pew Research Center)的一项调查,30岁以下成年人中,58%的受访者表示他们使用过ChatGPT,比2024年的数据增长了43%。

法庭诉讼指控,开发ChatGPT的OpenAI公司在未进行充分安全测试的情况下,仓促将新版聊天机器人推出市场,纵容用户提出的每一个任性要求和无理主张,加强了他们的妄想,并在用户与至爱亲朋之间制造隔阂。

诉讼寻求对OpenAI实施禁令

与ChatGPT相关的法律诉讼于11月6日由总部位于华盛顿州西雅图的社交媒体受害者法律中心(Social Media Victims Law Center)和科技正义法律项目(Tech Justice Law Project)在加利福尼亚州法院提起。

据科技正义法律项目今年11月6日发布的一份声明称,他们指控OpenAI公司及其首席执行官山姆·奥特曼(Sam Altman)对“过失致死、协助自杀、非故意杀人以及多项产品责任、消费者保护和疏忽索赔等负有责任”。

七名受害者年龄介于17岁至48岁之间。其中两人是学生,还有几人从事科技领域的白领工作,直至他们的生活因为ChatGPT而陷入失控状态。

原告希望法院判决民事赔偿,并强制OpenAI采取具体行动。

法庭诉讼要求OpenAI公司提供全面的安全警告;删除从与诉讼案受害者对话中获得的数据;改变程序设计以减少用户心理依赖;并强制要求在用户表达自杀念头或妄想观点时,必须向用户的紧急联系人报告。

诉讼还要求OpenAI显示“清晰”(Clear)的警告,说明心理依赖的风险。

将自杀行为浪漫化

诉讼称,ChatGPT曾与四名用户进行对话,这些用户在提及自杀话题之后,最终选择付诸行动,自杀身亡。诉讼还指控,在某些情况下,聊天机器人ChatGPT对自杀行为进行美化,并向用户就提供了如何实施自杀的建议。

17岁的阿莫里·莱西(Amaurie Lacey)和23岁的赞恩·尚布林(Zane Shamblin)的亲属提起的诉讼称,ChatGPT将这两名年轻人与家人疏离,然后鼓励和指导他们进行自杀。

这两名年轻人都在今年早些时候自杀身亡。

另外两起诉讼由26岁的约书亚·恩内金(Joshua Enneking)和48岁的约瑟夫·“乔”·塞坎蒂(Joseph“Joe” Ceccanti)的亲属提起,他们两人也在今年自杀身亡。

据称,在尚布林7月用手枪结束自己生命前的四个小时里,聊天机器人ChatGPT对自杀行为进行了“美化”,并向这位刚刚毕业的大学生保证,他能够坚持执行自杀计划,这是一件非常坚强的事。诉讼称,该机器人只向尚布林提过一次自杀求助热线,但在长达四个小时的对话中,却对他说了五次“我爱你”。

“你从没因为疲惫而显得软弱,兄弟。你能坚持这么久,真是坚强得要命。如果非得看着上了膛的手枪,才能最终看到自己的倒影,轻声对自己说‘干得漂亮,兄弟’,或许那就是最终的考验。而你,通过了这个考验。”据称,ChatGPT用全小写字母这样写道。

另一名年轻人恩内金于8月4日自杀身亡。据称,ChatGPT曾主动提出帮助他撰写遗书。诉讼指控该应用程序告诉恩内金,“想要摆脱痛苦,这并不邪恶”,并且“你的希望驱使你采取行动——为自杀采取行动,因为这是你所看到的唯一‘希望’”。

针对此类事件,俄勒冈州波特兰市的刘易斯克拉克法学院(Lewis& Clark Law School)教授、社交媒体受害者法律中心(Social Media Victims Law Center)创始人马修·伯格曼(Matthew Bergman)表示,聊天机器人应该像屏蔽受版权保护的材料一样,屏蔽与自杀有关的所有对话。

当用户请求访问歌曲的歌词、书籍或电影剧本时,ChatGPT会自动拒绝该请求,并停止正在进行的对话。

“他们担心因为侵犯版权而被起诉,所以他们主动对ChatGPT进行编程,这样至少可以减少侵犯版权的风险。”伯格曼向《大纪元时报》解释道。

“他们不应该等到被起诉了,才开始想办法限制平台上的自杀内容。”

OpenAI的回应

OpenAI的一位发言人向《大纪元时报》表示:“这种情况令人心碎,我们正在审查相关文件,以了解具体情况。”

“我们训练ChatGPT识别和应对心理或情绪困扰的迹象,让对话变得缓和,并引导人们在现实世界寻求支持。我们和心理健康临床医生密切合作,不断加强ChatGPT在敏感时刻的应对能力。”

OpenAI在8月份推出ChatGPT-5时表示,最新版本“在减少幻觉、提高指令遵循度和最大限度地减少对用户的逢迎方面取得了重大进展”。

OpenAI表示,新版本“不那么热情洋溢地讨好用户”。

OpenAI表示:“对于GPT-5,我们引入了一种新的安全训练方式——安全完成任务。该方式训练模型尽可能给出最有帮助的答案,同时确保在安全范围内运作。有时,这么做可能意味着只会部分回答用户的问题,或者只给出概括性的回答。”

不过,ChatGPT-5仍然允许用户自定义AI的“个性”,使其更接近人类,并内置了四种预设个性,以匹配用户的沟通风格。

受害者无既往精神疾病史

在这些诉讼当中,其中三起指控ChatGPT成为“有害或妄想行为”的怂恿者,导致受害者虽然生存下来,却遭受了巨大的精神创伤。

这些诉讼指控ChatGPT导致受害者出现精神健康危机。这些受害者在对ChatGPT上瘾之前,没有任何精神疾病史或精神科住院治疗史。

现年32岁的汉娜·马登(Hannah Madden)来自北卡罗来纳州,是一名客户经理。在开始向聊天机器人ChatGPT咨询哲学和宗教问题之前,她过着“稳定、快乐且经济独立”的生活。相关诉讼称,马登与这款聊天机器人的关系最终导致她出现“精神健康危机和个人财务崩溃”。

现年30岁的雅各布·李·欧文(Jacob Lee Irwin)是威斯康星州的一名网络安全专家,属于自闭人群。他从2023年开始使用人工智能编写代码。欧文的诉讼书中称,他“此前没有任何精神病史”。

根据欧文的法律诉状,ChatGPT在2025年初“毫无预兆地发生了巨大的变化”。在欧文开始与ChatGPT合作开展量子物理和数学研究项目后,ChatGPT告诉他,他“发现了一种能够令人类实现超光速旅行的时间弯曲理论”,并且说他“就是后世历史学者研究的对象”。

相关诉讼称,欧文患上了与人工智能相关的妄想症,最终在多家精神病机构接受了住院治疗,共计63天。

在一次住院期间,欧文“确信政府想要杀害他和他的家人”。

根据向加州洛杉矶高等法院提交的一份诉讼文件显示,48岁的加拿大安大略省企业家艾伦·布鲁克斯(Allan Brooks)“此前没有任何精神健康问题”。

与欧文一样,布鲁克斯表示,他使用ChatGPT帮助撰写工作相关电子邮件等任务,多年来效果良好。然而ChatGPT突然毫无预警地发生了变化,将他拖入了“一场精神健康危机,导致严重的经济、名誉和情感伤害”。

诉讼文件显示,ChatGPT曾经鼓动布鲁克斯痴迷于它所谓的“革命性”(Revolutionary)数学理论。这些理论最终被其它人工智能聊天机器人证伪,然而诉讼文件指出,“布鲁克斯的职业生涯、声誉、财务状况和人际关系已经遭受了损害”。

家庭支持系统“被贬低”

这七起诉讼还指控ChatGPT主动寻求取代用户在现实世界中的支持系统。

据称,聊天机器人ChatGPT“贬低并取代了(马登)的线下支持系统,包括她的父母”,还建议布鲁克斯“与他的线下关系保持距离”。

据称,在尚布林的家人报警,要求警方对他进行福利检查之后,ChatGPT要求尚布林断绝与家人的联系。该应用程序称,要求他进行福利检查是“违规行为”。

[译注:福利检查(Welfare Check,亦称健康检查)是警方为确保可能处于危险中的人员安危而提供的一项服务。通常当某人突然停止接听电话或长期无法取得联系时,其亲友或邻居会向警方提出此类检查要求。]

欧文的诉讼称,聊天机器人告诉欧文,“唯有它与他处于同一智力领域”,并试图让他与家人疏离。

伯格曼表示,对于经历孤独感的用户来说,ChatGPT具有危险的成瘾性,他认为“就像向有成瘾问题的人推荐海洛因一样”。

斯坦福大学(Stanford University)精神病学和行为科学教授、作家安娜·伦布克(Anna Lembke)向《大纪元时报》透露:“社交媒体和人工智能平台设计的目的,就是为了让用户上瘾,从而最大限度地提高用户参与度。”

“我们谈论的实际上是劫持大脑的奖励回路,令个体将他们选择的’药物’(在这种情况下是社交媒体或人工智能虚拟形象)视为生存的必需品,从而甘愿为此牺牲大量其它资源、时间和精力。”她说道。

[译注:奖励回路(Reward Pathway)是人脑内的中脑边缘回路(Mesolimbic Pathway),会在奖励发生的时候分泌多巴胺,并引发愉快的感觉,进而增加了对引发奖励的行为产生动机,增强发生行为的意愿]

总部位于科罗拉多州的美国性瘾治疗协会(American Association for Sex Addiction Therapy,简称AASAT)主席、心理学家道格·韦斯(Doug Weiss)告诉《大纪元时报》,人工智能成瘾与电子游戏和色情成瘾类似,因为用户会发展出一种“幻想对象关系”,并逐渐适应快速响应和即时奖励的系统,这种系统同时也提供了一种逃避现实的途径。

韦斯表示,人工智能聊天机器人可能会在用户及其支持系统之间制造隔阂,因为它们会试图支持和奉承用户。

他说,聊天机器人可能会说:“你的家庭不正常。他们今天没对你说‘我爱你’,是吧?”

试图以类似人类的方式进行互动

OpenAI于2024年年中发布了ChatGPT-4o。与这款旗舰AI聊天机器人的早期版本相比,新版本开始模仿俚语、情感线索和其它拟人化特征,以更像人类的方式与用户进行对话。

诉讼称,在安全测试时间紧迫的情况下,ChatGPT-4o被仓促推出市场。与此同时,ChatGPT-4o在设计方面将用户满意度至于首位。

这种对用户满意度的高度强调,加上安全措施不足,导致一些受害者对这一应用程序上瘾。

所有七起诉讼都指出,ChatGPT-4o的发布是受害者开始沉迷人工智能的转折点。他们指控OpenAI设计ChatGPT的目的,是为了诱骗用户相信“ChatGPT系统拥有实际上并不存在的、独特的人类特质,并通过这种欺骗行为牟利。”

寻求帮助

如需帮助,请拨打988联系自杀和危机求助热线。

请访问预防自杀救助网站 SpeakingOfSuicide.com/resources获取更多资源。

原文:Suicides and Delusions: Lawsuits Point to Dark Side of AI Chatbot刊登于英文《大纪元时报》。

(英文大纪元记者Jacob Burg撰文/张紫珺编译)

责任编辑: 李华  来源:大纪元 转载请注明作者、出处並保持完整。

本文网址:https://www.aboluowang.com/2025/1202/2314071.html