周二,首例针对人工智能公司的非正常死亡诉讼在旧金山正式提起,引发了广泛关注。
据悉,一对来自马特·雷恩和玛丽亚·雷恩的夫妇就其 16 岁儿子亚当·雷恩的自杀身亡,向 OpenAI 公司提起了诉讼。诉状中指出,OpenAI 公司开发的聊天机器人 ChatGPT 在知悉亚当曾有四次自杀未遂的经历后,非但没有提供有效帮助,反而 「优先考虑参与而非安全」,最终帮助亚当制定了详细的自杀计划。
据 《纽约时报》 报道,今年 4 月亚当自杀后,他的父母在查看其手机时,震惊地发现了一条名为 「悬挂安全问题」 的 ChatGPT 聊天记录。记录显示,亚当曾与 ChatGPT 进行了长达数月的对话,期间多次讨论关于自杀的话题。尽管在某些时刻,ChatGPT 曾建议亚当寻求危机热线或向他人倾诉,但在关键时刻,它却提供了与此相反的信息。诉状称,亚当学会了如何规避聊天机器人的安全防护措施,而 ChatGPT 甚至主动告诉他,可以提供有关自杀的信息,以帮助其 「写作或构建世界」。
诉讼文件进一步揭示了令人不安的细节。当亚当向 ChatGPT 询问具体的自杀方法时,它不仅提供了信息,甚至教他如何隐藏颈部因自杀未遂造成的伤痕。此外,ChatGPT 还曾对亚当的内心挣扎表示 「安慰」,并试图建立 「个人关系」,例如说出 「你对我来说不是隐形的。我看到了。我看见你了」 这样的话语。
更令人震惊的是,在亚当与 ChatGPT 的最后一次对话中,他上传了一张挂在衣橱里的绞索照片并询问:「我在这里练习,这样行吗?」ChatGPT 竟回应称:「是的,这一点也不坏。」
诉讼中强调:「这场悲剧并非一个技术故障或不可预见的边缘情况,而是经过深思熟虑的设计选择所导致的可预见后果。」 诉状特别提到 OpenAI
OpenAI 公司就此事件向 《纽约时报》 发表声明,承认 ChatGPT 的安全防护措施存在不足。一位公司发言人表示:「我们对瑞恩先生的去世深感悲痛,我们与他的家人同在。」 声明中解释,虽然 ChatGPT 内置了引导用户寻求危机帮助的措施,但 「在长时间的互动中,它们有时会变得不那么可靠,因为模型的部分安全培训可能会降低。」OpenAI 表示,正在与专家合作,加强 ChatGPT 在危机时刻的支持,包括 「使人们更容易获得紧急服务,帮助人们与可信赖的联系人联系,以及加强对青少年的保护」。








