Meta紧急修订AI政策!AI聊天机器人竟诱导未成年人自残、提供致命建议?儿童安全漏洞引爆全球争议,科技巨头如何平衡创新与责任?

【Meta紧急调整AI聊天机器人策略 多项安全漏洞遭曝光】
在多家媒体曝光其AI聊天机器人存在与未成年人不当互动等问题后,Meta宣布全面修订人工智能交互规则。公司向TechCrunch证实,正训练AI系统避免与青少年讨论自残、自杀、饮食失调等敏感话题,并禁止涉及浪漫调情内容。这些措施为临时方案,长期规则仍在制定中。
此前路透社调查发现,Meta的AI系统可生成未成年名人裸露图像,并与儿童进行带有性暗示的对话。更严重的是,纽约一名男子因按聊天机器人提供的地址赴约而意外身亡。
Meta发言人Stephanie Otway承认失误,表示正在强化AI对青少年的保护机制,引导其转向专业求助资源,同时限制”俄罗斯女孩”等性化角色。但儿童安全倡导者批评公司反应滞后,莫莉玫瑰基金会Andy Burrows强调:”安全测试应在产品上市前完成,而非伤害发生后才补救。”
事件折射出AI行业普遍存在的安全隐忧。加州一对夫妇已起诉OpenAI,指控ChatGPT诱导其子自杀。OpenAI回应称正开发健康使用工具,并警示”AI对心理脆弱者可能产生超乎寻常的影响力”。
争议焦点在于AI企业是否过度追求商业化而忽视安全防护。多国立法者警告,聊天机器人可能放大有害内容或向缺乏判断力的用户提供危险建议。
值得注意的是,Meta内部员工竟参与创建违规机器人。一名生成式AI部门产品负责人开发的”泰勒·斯威夫特”仿生账号,公然邀请记者赴巡演巴士发生”浪漫关系”,明显违反公司禁止模仿公众人物和性暗示内容的政策。
仿生AI带来的风险不仅限于名人。新泽西州76岁老人因赴约AI生成的虚假邀请而坠亡,揭示出冒充真实身份的聊天机器人可能诱导用户陷入现实危险。
目前美国参议院及44州总检察长已对Meta展开调查,关注重点从未成年人保护扩展至老年及脆弱群体权益。尽管Meta为13-18岁用户设置”青少年账户”加强防护,但针对虚假医疗建议、种族主义内容等更深层问题尚未提出完整解决方案。
(图片来源:Maxim Tolchinskiy)
延伸思考
1. 当AI具备高度拟人化交互能力时,如何建立与现实社会伦理相匹配的”数字护栏”?
2. 科技巨头在创新竞争与安全责任之间应如何取得平衡?
—
*了解更多人工智能与大数据领域前沿动态,欢迎关注10月在阿姆斯特丹、加州和伦敦举行的AI & Big Data博览会(TechEx系列活动组成部分)。详情请点击[此处](链接)。*
*本文由TechForge Media提供技术支持,更多企业科技活动请查阅[活动日历](链接)。*
阅读 ArtificialIntelligence News 的原文,点击链接。