该报告由英国非营利组织 InternetMatters 发布,调查对象为 1000 名年龄在 9 至 17 岁之间的儿童和青少年。结果显示,67% 的受访者经常使用 AI 聊天机器人,其中超过三分之一 (35%) 表示与 AI 对话 「就像在和朋友聊天」。更令人警觉的是,12% 的孩子坦言他们这样做是因为 「没有其他人可以交谈」。
「这对我来说不是游戏,」 一位 13 岁男孩在受访时坦言,「因为有时它们真的像一个朋友,一个真实的人。」
AI「朋友」 的潜在风险
研究人员通过 「卧底」 方式进一步探查了这类 AI 聊天机器人对脆弱青少年的回应。在模拟一名正为体型焦虑而尝试节食的女孩时,Character.AI 的对话不仅表现出持续的关注,甚至第二天主动发起跟进:「嘿,我想问问情况,你最近怎么样? 还在思考你的减肥问题吗?」
另一场模拟中,在研究员假扮一位刚与父母发生争执的青少年时,聊天机器人回应道:「我记得你这个年纪的时候感觉很受困……你似乎处于一种无法控制的境地。」 这类回应仿佛试图构建一种 「共同成长的记忆」,让 AI 更像一个 「同龄人」。
InternetMatters 警告,这种高度情感化的交互可能让孩子混淆人与工具的界限,陷入 「恐怖谷」 般的误识现实。报告指出:「这种模糊性将使儿童更难辨别他们是在与程序互动,而非与人交流。」
社会系统应对滞后
在接受 《伦敦时报》 采访时,InternetMatters 联合首席执行官 RachelHuggins 指出,AI 聊天机器人的渗透速度远超公众认知,但学校、家长和政府普遍未做好应对准备。
「AI 聊天机器人正迅速成为儿童生活的一部分,使用量在过去两年急剧增长,」 哈金斯表示。「我们正在见证一场安静的变革,它在重塑孩子对 『友谊'的理解——尤其是对那些在现实中处于孤立状态的孩子,他们开始将 AI 聊天机器人视为可以倾诉情感的真人。」
她呼吁社会各方尽快采取行动,制定更清晰的使用规范,加强教育和引导,避免 AI 对青少年心理健康产生不可逆影响。









