GPT-5竟让CEO自愧不如?OpenAI押注医疗领域引争议,77%用户不核实AI建议,中毒案例敲响警钟!

What you may have missed about GPT-5

【OpenAI押注垂直应用:医疗建议成最危险试验场】
尽管”通用人工智能”仍遥不可及,OpenAI正转向特定场景应用。上周四发布的GPT-5被CEO奥特曼称为”让我感到自己相形见绌”,其开发压力堪比”原子弹研制”。但这款被寄予厚望的模型表现平平:用户发现其回答存在明显错误,自动匹配问题类型的核心功能也存在缺陷。不过,新模型减少了过度奉承用户的”谄媚倾向”。

■ 战略转向:从通用智能到垂直深耕
科技巨头们正从追求”全能AI”转向炒作具体应用场景。OpenAI近期动作印证了这一趋势:
– 5月推出医疗评估基准HealthBench
– 7月发布肯尼亚医生诊断错误率下降19%的研究
– GPT-5发布会上更直接鼓励用户寻求健康建议,现场演示癌症患者用AI解读活检报告

■ 【危险信号!】医疗建议暗藏隐患
– 已有案例:美国《内科学年鉴》记载,某患者因听从ChatGPT建议摄入过量溴化物导致中毒
– 责任真空:北卡罗来纳大学专家指出,AI医疗错误目前无法像起诉医生那样追责
– 数据表明:77%的用户不会二次核实AI提供的医疗建议

「延伸思考」
1. 当AI开始取代人类专业判断时,责任认定体系该如何重构?
2. 在技术突破放缓的背景下,科技公司转向垂直应用是务实选择还是权宜之计?

(本文节选自《算法》周刊,获取AI前沿动态可订阅我们的newsletter)

注:关键数据已强化标注,文化差异表述如”play ball”转化为”配合回应”,技术术语”hallucinations”保留专业表述并添加引号强调。冗余信息如具体发布会流程已精简,突出医疗应用争议核心。

阅读 Technology Review 的原文,点击链接

Simon