AI聊天机器人竟比政治广告更能左右选民?研究揭示一次对话就能改变政治立场,但最具说服力的模型却暗藏虚假信息,这将对民主构成怎样震撼的挑战?

# 研究发现:AI聊天机器人一次对话即可改变选民立场,但最具说服力的模型也传播最多虚假信息
2024年,宾夕法尼亚州民主党国会候选人沙梅因·丹尼尔斯使用名为”阿什利”的AI聊天机器人给选民打电话并进行对话。这些通话以”你好,我叫阿什利,我是沙梅因·丹尼尔斯竞选国会议员的人工智能志愿者”开始。虽然丹尼尔斯最终未能当选,但这些通话可能确实起到了作用:最新研究揭示,AI聊天机器人仅通过一次对话就能改变选民的政治观点,而且效果惊人。
一个由多所大学组成的研究团队发现,与带有政治偏见的AI模型聊天,比政治广告更能有效促使民主党人和共和党人支持对立政党的总统候选人。聊天机器人通过引用事实和证据来影响观点,但这些内容并不总是准确的——研究人员发现,最具说服力的模型反而说了最多不实之言。
这些发现详细发表在《自然》和《科学》期刊的两项研究中,是最新一批证明大语言模型说服力的研究成果。它们引发了关于生成式AI如何重塑选举的深刻问题。
参与《自然》研究的康奈尔大学心理学家戈登·彭尼库克表示:”与大语言模型的一次对话就能对重要的选举选择产生相当显著的影响。”他指出,LLM比政治广告更具说服力,因为它们能实时生成更多信息,并在对话中策略性地运用这些信息。
在《自然》论文中,研究人员在2024年美国总统选举前两个月招募了2300多名参与者与聊天机器人对话。这个被训练为支持两位主要候选人之一的聊天机器人表现出惊人的说服力,特别是在讨论经济、医疗等政策议题时。与支持卡玛拉·哈里斯的AI模型对话后,唐纳德·特朗普的支持者略微倾向于支持哈里斯,在100分制中向她的方向移动了3.9分。这大约是2016年和2020年选举期间政治广告效果的四倍。支持特朗普的AI模型则使哈里斯支持者向特朗普方向移动了2.3分。
在2025年加拿大联邦选举和2025年波兰总统选举前夕进行的类似实验中,研究团队发现了更大的影响——聊天机器人使反对派选民的态度改变了约10分。
长期以来的政治动机推理理论认为,党派选民不会接受与自身信仰相悖的事实和证据。但研究人员发现,当被指示使用事实和证据时,使用GPT和DeepSeek等模型的聊天机器人比不被要求时更具说服力。参与该项目的美国大学心理学家托马斯·科斯特洛说:”人们正在根据模型提供的事实和信息更新自己的观点。”
问题在于,聊天机器人呈现的部分”证据”和”事实”并不真实。在所有三个国家中,支持右倾候选人的聊天机器人比支持左倾候选人的聊天机器人做出了更多不准确陈述。科斯特洛指出,基础模型是在大量人类编写的文本上训练的,这意味着它们会再现现实世界的现象——包括”来自右翼的政治传播,这类信息往往准确性较低”,这是基于对党派社交媒体帖子的研究得出的结论。
在《科学》期刊发表的另一项研究中,一个重叠的研究团队调查了这些聊天机器人如此具有说服力的原因。他们部署了19个LLM,与来自英国的近77000名参与者就700多个政治议题进行互动,同时改变了计算能力、训练技巧和修辞策略等因素。
使模型具有说服力的最有效方法是指示它们用事实和证据充实论点,然后通过提供说服性对话示例进行额外训练。事实上,最具说服力的模型使最初不同意某项政治声明的参与者向同意方向移动了26.1分。参与该项目的英国AI安全研究所研究科学家科比·哈肯伯格表示:”这些确实是很大的处理效果。”
但优化说服力是以牺牲真实性为代价的。当模型变得更具说服力时,它们越来越多地提供误导性或虚假信息——而且没有人确切知道原因。哈肯伯格推测:”可能是随着模型学会运用越来越多的事实,它们基本上触及了自己所知内容的底线,所以事实质量变差。”
作者指出,聊天机器人的说服力可能对民主的未来产生深远影响。使用AI聊天机器人的政治活动可能以损害选民独立政治判断能力的方式塑造公众舆论。
然而,具体影响仍有待观察。普林斯顿大学政治学家安迪·格斯表示:”我们不确定未来的竞选活动会是什么样子,以及它们如何整合这类技术。”争夺选民注意力既昂贵又困难,让他们与聊天机器人进行长时间政治对话可能具有挑战性。他问道:”这会成为人们了解政治的方式,还是更多是一种小众活动?”
即使聊天机器人确实在选举中扮演更重要的角色,也不清楚它们会更多地放大真相还是虚构。西北大学政治学家亚历克斯·科波克指出,通常虚假信息在竞选中具有信息优势,因此竞选AI的出现”可能意味着我们正走向灾难”,”但这也可能意味着现在正确信息也将具有可扩展性”。
接下来的问题是谁将占据上风。科波克问道:”如果每个人的聊天机器人都在四处活动,这是否意味着我们会说服自己陷入僵局?”但有理由怀疑僵局是否会出现。政治家获得最具说服力模型的机会可能并不均等。不同政治派别的选民与聊天机器人的互动程度可能也不同。格斯指出:”如果一位候选人或政党的支持者比另一方更精通技术,说服效果可能不会平衡。”
随着人们转向AI帮助驾驭生活,无论竞选活动是否促成交互,他们可能开始向聊天机器人寻求投票建议。除非有强大的防护措施来控制系统,否则这对民主来说可能是一个令人担忧的世界。审计和记录LLM在政治对话中输出的准确性可能是第一步。
—
延伸思考
1. 监管挑战:随着AI在政治传播中的使用日益增多,如何建立有效的监管框架来确保信息真实性,同时不损害言论自由和技术创新?
2. 数字鸿沟:如果政治AI工具的访问和使用在不同群体中存在差异,这是否会加剧现有的政治不平等,甚至创造新的权力不对称?
阅读 Technology Review 的原文,点击链接。