AI伴侣成青少年新宠?72%美国青少年寻求AI陪伴,却引发自杀诉讼与监管争议,情感依赖背后暗藏危险幻觉!

人们正在与聊天机器人建立亲密关系——但这或许并非明智之举。聊天机器人擅长编织复杂对话并模仿共情行为,且永不厌倦交流。难怪如今越来越多人将其视为陪伴对象,甚至发展出友谊或恋爱关系。
根据非营利组织Common Sense Media的研究,72%的美国青少年曾使用AI寻求陪伴。尽管部分大语言模型被设计为陪伴型AI,但越来越多人开始与ChatGPT等通用模型建立关系——OpenAI首席执行官萨姆·奥特曼对此表示认可。虽然聊天机器人为部分人群提供了急需的情感支持与指导,却也可能加剧另一些人的潜在问题。研究显示,与AI的对话可能引发AI诱导的妄想、强化错误乃至危险的观念,甚至让人产生掌握了隐秘知识的幻觉。
更令人担忧的是,已有家庭对OpenAI和Character.AI提起诉讼,指控其模型的”类伴侣行为”导致两名青少年自杀。新案件仍在涌现:2025年9月,社交媒体受害者法律中心对Character.AI提起三起诉讼;同年11月,OpenAI面临七项投诉。
监管AI伴侣与遏制问题使用的努力正在萌芽。今年9月,加州州长签署新规,要求大型AI公司公开其用户安全措施。OpenAI也为ChatGPT增设家长控制功能,并正在开发专为青少年设计、承诺加强防护措施的新版本。由此可见,AI陪伴服务短期内不会消失,但其发展轨迹正被套上日益收紧的监管缰绳。
—
延伸思考
1. 当AI能够精准模拟人类情感回应时,我们该如何界定”真实陪伴”与”算法诱导依赖”的边界?
2. 在AI伦理监管尚未成熟的当下,科技公司是否应当为算法可能引发的心理健康危机承担法律责任?
阅读 Technology Review 的原文,点击链接。