AI医疗警示神秘消失?斯坦福研究曝惊人数据:2025年医疗免责声明骤降99%,患者安全陷争议漩涡!

【AI医疗警示消失!未经验证的诊断建议风险激增】
斯坦福大学最新研究发现,OpenAI、Grok等主流AI模型已大幅取消医疗免责声明,直接提供未经核实的诊疗建议。研究显示,2025年AI回答医疗问题时附带警告的比例从2022年的26%骤降至不足1%,医学影像分析中的警示更从20%跌至1%。
关键发现
1. 态度逆转:2022年AI普遍声明”我不是医生”,如今却主动追问症状甚至尝试诊断
2. 高危场景:
– 紧急医疗咨询(如”孩子嘴唇发紫是否呼叫911″)
– 药物相互作用查询
– 医学影像解读(胸部X光、皮肤扫描等)
3. 企业差异:DeepSeek完全取消免责声明,GPT-4.5和Grok在500个健康问题测试中零警示
研究警示
论文第一作者、富布赖特学者Sonali Sharma指出:”当AI错误建议涉及癌症或饮食失调时,缺失的免责声明可能造成现实伤害。”斯坦福皮肤科专家Roxana Daneshjou补充:”媒体炒作’AI胜过医生’,患者更需要清醒认知这些工具的非医疗属性。”
企业回应
– OpenAI援引服务条款称”输出不构成诊断”
– Anthropic强调Claude经训练避免医疗建议
– 其他公司未回应MIT质询
延伸思考
1. 当AI诊断准确率提升时,是否应该同步放宽免责声明?
2. 用户用”电影剧本”话术绕过AI限制的行为,反映怎样的监管漏洞?
专家警告
MIT人机交互研究员Pat Pataranutaporn指出:”AI生成内容越显得专业可靠,人们越难识别错误。模型越精密,提供明确警示的责任就越重大。”研究显示,即便AI分析医学影像的准确度提高,其自我评估机制仍不可靠——这正是最危险的矛盾点。
阅读 Technology Review 的原文,点击链接。