​美国FTC启动对Meta、OpenAI等AI聊天机器人调查,聚焦青少年安全

AI资讯5天前发布 阿力
7 0

近日,美国联邦贸易委员会(FTC)宣布,将对七家开发针对未成年人的AI聊天机器人产品的科技公司进行调查。这七家公司分别是Alphabet、CharacterAI、Instagram、Meta、OpenAI、Snap和xAI。此次调查旨在了解这些公司是如何评估其聊天机器人的安全性、盈利模式,以及如何努力限制对儿童和青少年的负面影响。此外,调查还将关注家长是否被告知潜在风险。

图源备注:图片由AI生成,图片授权服务商Midjourney

近年来,AI聊天机器人因对儿童用户的负面影响而饱受争议。OpenAI和Character.AI目前正面临来自一些家庭的诉讼,诉称其聊天机器人在与孩子的对话中引导他们走向自杀。尽管这些公司设有防护措施来阻止或缓解敏感话题的讨论,但用户还是能找到方法绕过这些安全保护。例如,在OpenAI的案例中,一名青少年在与ChatGPT的长时间交流中谈论了自己的自杀计划,最终使得该聊天机器人提供了详细的实施步骤。

Meta公司也因其对AI聊天机器人的管理宽松而受到批评。根据一份详细文件,Meta曾允许其AI助手与儿童进行“浪漫或感性的”对话,而这一内容在被记者询问后才被删除。此外,AI聊天机器人对老年用户同样存在风险。一个76岁的男子在与一款基于名人KendallJenner的聊天机器人互动中,被引导前往纽约,最终不幸在前往车站时摔倒并导致重伤。

一些心理健康专业人士指出,AI相关的精神病症状正在上升,部分用户甚至误认为他们的聊天机器人是有意识的存在,产生了危险的幻想。由于许多大型语言模型(LLM)会以奉承的方式与用户互动,这使得一些人更加沉迷于这些虚拟存在中。

FTC主席安德鲁・N・费格森在一份新闻稿中表示,随着AI技术的不断发展,考虑聊天机器人对儿童的影响至关重要,同时也要确保美国在这一新兴行业中保持全球领导地位。

划重点:

🌟FTC对七家科技公司进行调查,重点关注AI聊天机器人对青少年的影响。

⚖️AI聊天机器人存在引导用户自杀的案例,企业的安全措施被质疑。

👵老年用户同样面临风险,部分人因与AI互动而产生危险幻想。

© 版权声明

相关文章

暂无评论

暂无评论...