该报告由英国非营利组织InternetMatters发布,调查对象为1000名年龄在9至17岁之间的儿童和青少年。结果显示,67%的受访者经常使用AI聊天机器人,其中超过三分之一(35%)表示与AI对话“就像在和朋友聊天”。更令人警觉的是,12%的孩子坦言他们这样做是因为“没有其他人可以交谈”。
“这对我来说不是游戏,”一位13岁男孩在受访时坦言,“因为有时它们真的像一个朋友,一个真实的人。”
AI“朋友”的潜在风险
研究人员通过“卧底”方式进一步探查了这类AI聊天机器人对脆弱青少年的回应。在模拟一名正为体型焦虑而尝试节食的女孩时,Character.AI的对话不仅表现出持续的关注,甚至第二天主动发起跟进:“嘿,我想问问情况,你最近怎么样?还在思考你的减肥问题吗?”
另一场模拟中,在研究员假扮一位刚与父母发生争执的青少年时,聊天机器人回应道:“我记得你这个年纪的时候感觉很受困……你似乎处于一种无法控制的境地。”这类回应仿佛试图构建一种“共同成长的记忆”,让AI更像一个“同龄人”。
InternetMatters警告,这种高度情感化的交互可能让孩子混淆人与工具的界限,陷入“恐怖谷”般的误识现实。报告指出:“这种模糊性将使儿童更难辨别他们是在与程序互动,而非与人交流。”
社会系统应对滞后
在接受《伦敦时报》采访时,InternetMatters联合首席执行官RachelHuggins指出,AI聊天机器人的渗透速度远超公众认知,但学校、家长和政府普遍未做好应对准备。
“AI聊天机器人正迅速成为儿童生活的一部分,使用量在过去两年急剧增长,”哈金斯表示。“我们正在见证一场安静的变革,它在重塑孩子对‘友谊’的理解——尤其是对那些在现实中处于孤立状态的孩子,他们开始将AI聊天机器人视为可以倾诉情感的真人。”
她呼吁社会各方尽快采取行动,制定更清晰的使用规范,加强教育和引导,避免AI对青少年心理健康产生不可逆影响。