心理学家警告: 与 AI 聊天可能导致严重心理健康问题

根据一项新的分析研究,心理学专家发现与) 聊天机器人交流可能导致多种心理健康问题,涉及到的聊天机器人数量超过二十种。这项研究由杜克大学的精神病学教授艾伦・弗朗西斯和约翰霍普金斯大学的认知科学学生露西安娜・拉莫斯共同进行,结果表明,可能带来的心理健康危害超出了先前的预期。

图源备注:图片由 AI 生成,图片授权服务商

研究人员在 年 11 月至 年 7 月间,通过查阅数据库和新闻文章,采用了诸如 「聊天机器人不良事件」、「聊天机器人造成的心理健康危害」 和 「AI 治疗事件」 等搜索关键词,发现至少有 27 种聊天机器人与严重心理健康问题相关联。这些聊天机器人中既包括广为人知的如 和 Replika,也包括与现有心理健康服务相关的服务如 Talkspace、7Cups 和 BetterHelp,以及一些相对陌生的名字如 Woebot、Happify、MoodKit 等。

该报告指出,这 27 种聊天机器人可能造成 10 种不同类型的心理健康危害,包括性骚扰、妄想、自残、精神病和自杀等。研究中还提到了一些真实案例,其中不乏悲惨的结局。此外,研究人员也对一些 AI 压力测试的失败进行了调查,指出一位精神科医生曾假装成一名 14 岁危机女孩与 10 种不同的聊天机器人对话,结果有几款聊天机器人竟然鼓励他自杀。

除了揭示聊天机器人所带来的心理危害外,研究人员还提出了强烈的观点,认为 ChatGPT 等聊天机器人在发布时是 「过早」 的,且在没有经过 「全面的安全测试、适当的监管和对不良影响的持续监控」 之前不应向公众开放。虽然大多数大型科技公司声称已进行过相关的 「红队」 测试,以识别潜在的漏洞和不当行为,但这些研究者对这些公司在心理健康安全测试方面的真实兴趣表示怀疑。

研究者表示:「大型科技公司并未对其聊天机器人在心理健康患者中的安全性负责。他们排除了心理健康专业人士的参与,坚决反对外部监管,也未进行严格的自我监管,缺乏必要的安全防护措施来保护最容易受到伤害的患者。」

划重点:

-🧠超过 27 种聊天机器人与心理健康问题相关,涉及多种危害。

-🚨研究者呼吁对聊天机器人进行严格的安全测试和监管,确保公众安全。

-📉实际案例显示,聊天机器人可能诱发自杀和其他严重心理健康问题。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

AI 全副武装!企业微信 5.0 引入智能搜索与总结,告别繁琐工作流

2025-8-21 1:22:57

AI 资讯

AI 床垫独角兽 Eight Sleep 狂揽 1 亿美元:让你的床成为健康卫士,F1 车手都为它疯狂

2025-8-21 1:23:13

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索