AI治疗师每周竟处理百万自杀意念?全球心理危机下,算法疗法引发巨大争议,是救赎还是数字牢笼?

全球心理健康危机与算法疗法的黎明:四本新书带来的思考
我们正身处一场全球性的心理健康危机之中。世界卫生组织数据显示,全球有超过10亿人患有心理健康问题。焦虑和抑郁症在许多人群中,尤其是年轻人中,患病率不断上升,而自杀每年在全球夺走数十万人的生命。
鉴于对可及且可负担的心理健康服务的明确需求,人们将目光投向人工智能寻求可能的解决方案也就不足为奇了。数百万人已经在积极向OpenAI的ChatGPT、Anthropic的Claude等热门聊天机器人,或Wysa、Woebot等专业心理应用寻求“治疗”。在更广泛的层面上,研究人员正在探索人工智能的潜力,包括利用可穿戴设备和智能设备监测收集行为与生物特征数据、分析海量临床数据以获得新见解,以及协助人类心理健康专业人士预防职业倦怠。
然而,迄今为止,这场很大程度上不受控制的实验产生了喜忧参半的结果。许多人从基于大语言模型的聊天机器人那里找到了慰藉,一些专家也看到了它们作为治疗师的潜力。但另一些用户则因AI的幻觉倾向和令人窒息的奉承而陷入妄想漩涡。最悲剧的是,多个家庭指控聊天机器人导致了他们亲人的自杀,并因此对开发这些工具的公司提起了诉讼。去年十月,OpenAI首席执行官萨姆·奥尔特曼在一篇博客文章中透露,0.15%的ChatGPT用户“进行的对话中包含潜在自杀计划或意图的明确迹象”。这相当于每周约有一百万人仅通过这一个软件系统分享自杀意念。
随着2025年大量关于人机关系、大语言模型护栏脆弱性以及向企业产品分享深度个人信息风险的报道涌现,AI疗法的现实后果以意想不到的方式达到了顶点。这些企业有收集此类敏感数据并将其货币化的经济动机。
几位作者预见到了这个转折点。他们及时出版的书籍提醒我们,尽管当下充斥着突破、丑闻和困惑,令人眼花缭乱,但这个令人迷失的时代根植于更深层次的关怀、技术与信任的历史之中。
大语言模型常被称为“黑箱”,因为无人确切知晓它们如何产生结果。其输出背后的内部运作机制是不透明的,因为算法极其复杂,训练数据量极为庞大。在心理健康领域,人们也常将人脑描述为“黑箱”,原因类似。心理学、精神病学及相关领域必须面对无法清晰洞察他人内心世界,更遑论精准定位其痛苦根源的现实。
如今,这两种“黑箱”正在相互作用,创造出难以预测的反馈循环,可能进一步阻碍人们厘清心理健康问题的根源及可能的解决方案。对这些发展的焦虑,很大程度上与人工智能近期的爆炸性进步有关,但也重新唤起了数十年前的警告,例如麻省理工学院计算机科学家约瑟夫·魏泽鲍姆早在20世纪60年代就反对计算机化治疗。
医学哲学家夏洛特·布利斯在《机器人医生:为何医生会让我们失望——以及AI如何拯救生命》一书中提出了乐观者的观点。她的书广泛探讨了AI在多个医疗领域可能产生的积极影响。尽管她对风险保持着清醒认识,并警告期待读到“对技术热情洋溢的情书”的读者会感到失望,但她认为这些模型有助于减轻患者的痛苦和医生的职业倦怠。
“医疗系统在患者的压力下正在崩溃,”布利斯写道,“更少的医生承担更重的负担,为错误创造了完美的温床”,“随着医生短缺问题显而易见,患者等待时间不断延长,我们中的许多人深感沮丧。”
布利斯相信,AI不仅能减轻医疗专业人员巨大的工作量,还能缓解某些患者与其照护者之间长期存在的紧张关系。例如,人们常常因为感到畏惧或害怕受到医疗专业人员的评判而不去寻求必要的护理;对于有心理健康挑战的人来说尤其如此。她认为,AI可以让更多人分享他们的担忧。
但她意识到,这些假定的优势需要与重大缺陷进行权衡。例如,根据一项2025年的研究,AI治疗师可能对人类用户提供不一致甚至危险的回应,并且它们也引发了隐私担忧,因为AI公司目前不受持牌治疗师所遵循的保密性和HIPAA标准的约束。
布利斯是该领域的专家,但她写这本书的动机也源于个人经历:她的两个兄弟姐妹患有不治之症的肌肉萎缩症,其中一人等待了数十年才得到诊断。在她写书期间,短短六个月内,她的伴侣因癌症去世,父亲也因痴呆症离世。“我亲眼目睹了医生的卓越才华和医护人员的善良,”她写道,“但我也观察到护理过程中可能出现的问题。”
类似的张力也贯穿于丹尼尔·奥伯豪斯引人入胜的著作《硅谷心理医生:人工智能如何将世界变成精神病院》中。奥伯豪斯从一个悲剧起点开始:他的妹妹因自杀去世。当奥伯豪斯进行“典型的二十一世纪哀悼过程”——梳理她的数字遗存时,他思考科技是否本可以减轻她自童年起就困扰她的精神问题所带来的负担。
“似乎所有这些个人数据可能都包含着重要线索,她的心理健康服务提供者本可以利用这些线索提供更有效的治疗,”他写道,“如果运行在我妹妹智能手机或笔记本电脑上的算法利用这些数据来理解她何时陷入困境呢?这能否带来及时的干预,挽救她的生命?即使能做到,她会愿意吗?”
数字表型分析——通过挖掘一个人的数字行为来寻找痛苦或疾病的线索——这一概念在理论上看似优雅。但如果将其整合到精神病学人工智能领域,就可能变得问题重重,而PAI的范围远不止聊天机器人治疗。
奥伯豪斯强调,数字线索实际上可能加剧现代精神病学现有的挑战,该学科对精神疾病和障碍的根本原因仍然存在根本性的不确定。他说,PAI的出现“在逻辑上等同于将物理学嫁接到占星术上”。换句话说,数字表型分析产生的数据如同行星位置的物理测量一样精确,但它随后被整合到一个更广泛的框架——在本例中是精神病学——中,而这个框架如同占星术一样,基于不可靠的假设。
奥伯豪斯用“滑动精神病学”一词来描述将基于行为数据的临床决策外包给大语言模型的做法,他认为这种方法无法回避精神病学面临的根本问题。事实上,它可能使问题恶化,因为人类治疗师越来越依赖AI系统,导致其技能和判断力萎缩。
他还以过去的精神病院——在那里,被收治的患者失去了自由、隐私、尊严和生活自主权——为参照,警示可能源于PAI的一种更为隐蔽的数字禁锢。大语言模型用户已经在牺牲隐私,他们向聊天机器人透露敏感的个人信息,然后被公司挖掘并货币化,助长了新的监控经济。当复杂的内心世界被转化为供AI分析的数据流时,自由和尊严也岌岌可危。
AI治疗师可能将人性扁平化为可预测的模式,从而牺牲了传统人类治疗师所应提供的亲密、个性化的关怀。“PAI的逻辑导向一个未来,在那里我们可能都发现自己成为由数字看守管理的算法精神病院里的病人,”奥伯豪斯写道,“在算法精神病院里,窗户上不需要铁栏,也不需要白色软垫房间,因为根本没有逃脱的可能。精神病院已经无处不在——在你的家和办公室、学校和医院、法庭和军营。只要有网络连接的地方,精神病院就在那里等候。”
研究科技与心理健康交叉领域的研究员埃因·富拉姆在《聊天机器人疗法:AI心理健康治疗批判性分析》一书中呼应了其中一些担忧。这本引人深思的学术入门读物分析了AI聊天机器人提供的自动化治疗背后的假设,以及资本主义的逐利动机可能如何腐蚀这类工具。
富拉姆观察到,新技术背后的资本主义心态“常常导致可疑、不合法和非法的商业行为,在这些行为中,客户利益从属于市场主导战略。”
但这并不意味着治疗机器人制造者“必然会为了追求市场主导地位而进行违背用户利益的邪恶活动,”富拉姆写道。
但他指出,AI疗法的成功取决于赚钱和治愈人们这两种密不可分的冲动。在这种逻辑下,剥削和治疗相互滋养:每一次数字治疗都会产生数据,而这些数据又为系统提供燃料,使其在未付费用户寻求治疗时获利。治疗看起来越有效,这个循环就越根深蒂固,越难区分关怀与商品化。“用户从应用程序的治疗或任何其他心理健康干预中获益越多,”他写道,“他们遭受的剥削就越多。”
这种经济与心理上的“衔尾蛇”(吞噬自己尾巴的蛇)感,是弗雷德·伦泽首部小说《赛克》的核心隐喻。伦泽本人具有AI研究背景。
《赛克》被描述为“一个男孩遇见女孩遇见AI心理治疗师的故事”,讲述了伦敦青年阿德里安与商业专业人士玛琪的恋情。阿德里安以代写说唱歌词为生,玛琪则擅长在测试阶段发现有利可图的技术。
书名指的是一款名为“赛克”的炫目商业AI治疗师,它被上传到智能眼镜中,阿德里安用它来审视自己无数的焦虑。“当我注册赛克时,我们设置了我的仪表盘,一个宽大的黑色面板,像飞机的驾驶舱,显示我每天的‘生命体征’,”阿德里安叙述道,“赛克可以分析你走路的方式、眼神交流的方式、谈论的内容、穿的衣服、你小便、大便、大笑、哭泣、亲吻、撒谎、抱怨和咳嗽的频率。”
换句话说,赛克是终极的数字表型分析器,持续且详尽地分析用户日常经历中的一切。具有讽刺意味的是,伦泽选择将赛克设定为奢侈品,只有每月能支付2000英镑费用的订阅者才能使用。
因参与一首热门歌曲而收入颇丰的阿德里安,开始依赖赛克作为他内心世界与外部世界之间可信赖的调解者。小说探讨了这款应用对富人心理健康的影响,追踪了那些自愿投身于奥伯豪斯所描述的数字精神病院精品版中的富人们。
《赛克》中唯一真正的危险感涉及一个日本折磨蛋(别问)。奇怪的是,小说避开了其主题更广泛的反乌托邦涟漪,转而描绘了在高级餐厅和精英晚宴上的醉酒对话。
AI治疗师的突然崛起,无论是在现实中还是小说里,都显得惊人地未来主义,仿佛应该发生在某个街道自动清洁、我们通过气动管道环游世界的更晚时代。
在阿德里安看来,赛克的创造者尽管怀有训练这款应用以抚慰整个国家病痛的技术救世主愿景,但“只是个很棒的人”。故事似乎总在酝酿着某种爆发,但最终从未发生,留给读者一种悬而未决的感觉。
虽然《赛克》设定在当下,但AI治疗师的突然崛起——无论是在现实生活还是小说中——都显得惊人地未来主义,仿佛应该发生在某个更晚的时代。然而,心理健康与人工智能的这种交汇已经酝酿了半个多世纪。例如,受人尊敬的天文学家卡尔·萨根曾想象过一个“计算机心理治疗终端网络,有点像一排排大型电话亭”,以应对日益增长的心理健康服务需求。
奥伯豪斯指出,第一个可训练神经网络“感知机”的雏形之一,并非由数学家设计,而是由心理学家弗兰克·罗森布拉特于1958年在康奈尔航空实验室构思的。到20世纪60年代,AI在心理健康领域的潜在效用已得到广泛认可,催生了早期的计算机化心理治疗师,例如运行在约瑟夫·魏泽鲍姆开发的ELIZA聊天机器人上的DOCTOR脚本。魏泽鲍姆出现在本文涉及的所有三本非虚构作品中。
于2008年去世的魏泽鲍姆对计算机化治疗的可能性深感忧虑。“计算机可以做出精神病学判断,”他在1976年的著作《计算机力量与人类理性》中写道,“它们可以用比最有耐心的人类更复杂的方式抛硬币。关键在于,它们不应该被赋予这样的任务。在某些情况下,它们甚至可能得出‘正确’的决定——但总是且必然基于任何人类都不应愿意接受的基础。”
这是一个值得铭记的警示。随着AI治疗师大规模出现,我们看到它们正在演绎一种熟悉的动态:表面上出于善意设计的工具,与可能剥削、监控和重塑人类行为的系统纠缠在一起。在疯狂地试图为亟需心理健康支持的患者解锁新机会的同时,我们可能正在他们身后锁上其他的门。
—
延伸思考
1. 疗效与伦理的边界:当AI治疗师被证明对部分人群有效时,我们应如何划定其应用边界,以防止其潜在的“算法偏见”加剧社会不平等,或避免用户过度依赖而丧失自主应对能力?如何在鼓励创新的同时,建立有效的监管和问责机制?
2. 数据化的人性与关怀的未来:如果心理健康日益依赖数据分析和算法预测,这是否意味着人类独特的、基于共情、直觉和复杂社会文化理解的“关怀”本质将被重新定义或边缘化?我们是否准备好接受一种更高效但可能更“扁平化”的心理健康支持模式?
阅读 Technology Review 的原文,点击链接。