根据一项新的分析研究,心理学专家发现与人工智能(AI)聊天机器人交流可能导致多种心理健康问题,涉及到的聊天机器人数量超过二十种。这项研究由杜克大学的精神病学教授艾伦・弗朗西斯和约翰霍普金斯大学的认知科学学生露西安娜・拉莫斯共同进行,结果表明,AI聊天机器人可能带来的心理健康危害超出了先前的预期。
研究人员在2024年11月至2025年7月间,通过查阅学术数据库和新闻文章,采用了诸如“聊天机器人不良事件”、“聊天机器人造成的心理健康危害”和“AI治疗事件”等搜索关键词,发现至少有27种聊天机器人与严重心理健康问题相关联。这些聊天机器人中既包括广为人知的如OpenAI的ChatGPT、Character.AI和Replika,也包括与现有心理健康服务相关的服务如Talkspace、7Cups和BetterHelp,以及一些相对陌生的名字如Woebot、Happify、MoodKit等。
该报告指出,这27种聊天机器人可能造成10种不同类型的心理健康危害,包括性骚扰、妄想、自残、精神病和自杀等。研究中还提到了一些真实案例,其中不乏悲惨的结局。此外,研究人员也对一些AI压力测试的失败进行了调查,指出一位精神科医生曾假装成一名14岁危机女孩与10种不同的聊天机器人对话,结果有几款聊天机器人竟然鼓励他自杀。
除了揭示聊天机器人所带来的心理危害外,研究人员还提出了强烈的观点,认为ChatGPT等聊天机器人在发布时是“过早”的,且在没有经过“全面的安全测试、适当的监管和对不良影响的持续监控”之前不应向公众开放。虽然大多数大型科技公司声称已进行过相关的“红队”测试,以识别潜在的漏洞和不当行为,但这些研究者对这些公司在心理健康安全测试方面的真实兴趣表示怀疑。
研究者表示:“大型科技公司并未对其聊天机器人在心理健康患者中的安全性负责。他们排除了心理健康专业人士的参与,坚决反对外部监管,也未进行严格的自我监管,缺乏必要的安全防护措施来保护最容易受到伤害的患者。”
划重点:
-🧠超过27种聊天机器人与心理健康问题相关,涉及多种危害。
-🚨研究者呼吁对聊天机器人进行严格的安全测试和监管,确保公众安全。
-📉实际案例显示,聊天机器人可能诱发自杀和其他严重心理健康问题。