AI正悄然重塑政治版图?新研究揭示聊天机器人说服力远超人类专家,成本低至3000美元即可左右大选结果,民主面临前所未有的震撼挑战!

The era of AI persuasion in elections is about to begin

人工智能已具备强大的政治说服能力,并可能将其大规模自动化。我们尚未做好准备。

2024年1月,新罕布什尔州的许多家庭接到了电话。电话那头是乔·拜登的声音,敦促民主党人通过不参加初选来“保留选票”。声音听起来很真实,但它是假的——这通电话是由人工智能生成的伪造内容。

如今,制造这类骗局的技术已显得过时。像OpenAI的Sora这样的工具,现在能以惊人的轻松度制作出令人信服的合成视频。人工智能可以在几分钟内伪造政客和名人的信息,甚至整段新闻片段。对选举可能被逼真假媒体淹没的担忧已成为主流——这并非没有道理。

但这只是冰山一角。更深层的威胁不在于人工智能能模仿人,而在于它能主动说服人。本周发表的新研究揭示了这种说服力有多强大:两项大型同行评审研究表明,AI聊天机器人能显著改变选民观点,其效果远超传统政治广告。

未来几年,我们将见证能够个性化论证、测试策略并大规模悄然重塑政治观点的人工智能崛起。从模仿到主动说服的转变,应引起我们高度警惕

现代人工智能的挑战在于,它不仅复制声音或面孔,还能进行对话、解读情绪并调整语气以进行说服。它现在甚至可以指挥其他AI——指导图像、视频和语音模型为每个目标生成最具说服力的内容。将这些能力整合起来,不难想象如何构建一个协调的说服机器:一个AI撰写信息,另一个制作视觉效果,第三个在平台上分发并观察效果——全程无需人类参与。

十年前,开展有效的在线影响力活动通常需要部署大量人员运营虚假账户和 meme 农场。如今,这类工作可以廉价且隐蔽地自动化。驱动客服机器人和辅导应用的技术,同样可用于影响政治观点或放大政府偏好的叙事。这种说服不必局限于广告或自动电话,它可以融入人们日常使用的工具中——社交媒体推送、语言学习应用、交友平台,甚至是试图影响美国公众的政党开发和销售的语音助手。这种影响力可能来自恶意行为者利用人们已依赖的热门AI工具的API,也可能来自从一开始就内置说服功能的全新应用。

而且成本低廉:任何人只需花费不到100万美元,就能为美国每位注册选民生成个性化的对话信息。计算并不复杂:假设每人进行10次简短交流(约2700个文本令牌),按当前ChatGPT API的费率计价。即使面对1.74亿注册选民,总成本仍低于100万美元。而决定2016年大选的8万张摇摆票,仅需不到3000美元即可精准覆盖

尽管这是全球选举面临的共同挑战,但鉴于美国选举的规模及其对外国行为者的吸引力,其风险尤为突出。如果美国不迅速行动,2028年的下一届总统选举,甚至2026年的中期选举,可能将被率先实现说服自动化的一方赢得。

尽管有迹象表明人工智能对选举的威胁可能被夸大,但越来越多的研究表明情况正在变化。最近的研究显示,在就美国政治极化话题生成声明时,GPT-4的说服力超过了传播专家,并且在三分之二的情况下比非专家人类更能说服真实选民。

昨天发表的两项重大研究将这些发现扩展到了美国、加拿大、波兰和英国的真实选举情境中,表明简短的聊天机器人对话可将选民态度改变多达10个百分点,而美国参与者的观点转变幅度几乎是2016年和2020年测试的政治广告效果的四倍。当模型被明确优化用于说服时,转变幅度飙升至25个百分点——这几乎是难以想象的差距。

虽然现代大语言模型曾局限于资源充足的公司,但现在它们正变得越来越易于使用。像OpenAI、Anthropic和Google这样的主要AI提供商,将前沿模型包装在使用政策、自动安全过滤器和账户级监控中,并确实有时会暂停违反规则的用户。但这些限制仅适用于通过其平台的流量;它们不适用于快速发展的开源和开放权重模型生态系统,任何有互联网连接的人都可以下载这些模型。尽管它们通常比商业模型更小、能力稍弱,但研究表明,通过精心设计的提示和微调,这些模型现在可以匹配领先商业系统的性能。

这一切意味着,无论是资源充足的组织还是草根团体,都有明确的途径大规模部署具有政治说服力的人工智能。早期的演示已经在世界其他地方出现。在印度2024年大选中,据报道有数千万美元用于AI,以细分选民、识别摇摆选民、通过自动电话和聊天机器人传递个性化信息等。在台湾,官员和研究人员记录了与中国有关的行动,利用生成式AI制造更微妙的虚假信息,从深度伪造到偏向中国共产党批准的信息的语言模型输出。

这项技术进入美国选举只是时间问题——如果它还没有的话。外国对手完全有能力率先行动。中国、俄罗斯、伊朗等国已经拥有网络水军、机器人账户和秘密影响力运营网络。结合能够生成流利且本地化政治内容的开源语言模型,这些行动可以得到极大增强。事实上,不再需要懂语言或背景的人类操作员。只需轻微调整,一个模型就可以冒充社区组织者、工会代表或心怀不满的家长,而无需任何人踏入该国。

政治竞选活动本身很可能紧随其后。每个主要竞选活动都已经在细分选民、测试信息和优化投放。AI降低了所有这些工作的成本。竞选团队无需通过民调测试一个口号,而是可以生成数百个论点,进行一对一投放,并实时观察哪些论点改变了人们的看法。

根本事实很简单:说服变得有效且廉价。竞选团队、政治行动委员会、外国行为者、倡导团体和机会主义者都在同一个领域活动——而且规则寥寥无几。

大多数政策制定者尚未跟上步伐。过去几年,美国立法者专注于深度伪造,却忽视了更广泛的说服威胁。

外国政府已经开始更认真地对待这个问题。欧盟2024年的《人工智能法案》将与选举相关的说服归类为“高风险”用例。任何旨在影响投票行为的系统现在都必须遵守严格的要求。用于规划竞选活动或优化后勤等行政工具的人工智能系统则被豁免。然而,旨在塑造政治信仰或投票决定的工具则不被豁免。

相比之下,美国迄今拒绝划定任何有意义的界限。没有关于什么构成政治影响力行动的约束性规则,没有指导执法的外部标准,也没有跨平台追踪AI生成说服的共同基础设施。联邦和州政府已示意要监管——联邦选举委员会正在应用旧的欺诈条款,联邦通信委员会已提议对广播广告制定狭窄的披露规则,少数几个州通过了深度伪造法律——但这些努力是零散的,大多数数字竞选活动并未受到影响。

实际上,检测和瓦解秘密活动的责任几乎完全留给了私营公司,每家公司都有自己的规则、激励措施和盲点。Google和Meta已采取政策,要求在使用AI生成政治广告时进行披露。X在这方面基本保持沉默,而TikTok则禁止所有付费政治广告。然而,这些规则尽管温和,仅涵盖了被购买和公开显示的一小部分内容。它们对可能最重要的、未付费的私人说服活动几乎只字未提。

值得称赞的是,一些公司已开始定期发布威胁报告,识别秘密影响力活动。Anthropic、OpenAI、Meta和Google都披露了删除不真实账户的行动。然而,这些努力是自愿的,不受独立审计。最重要的是,所有这些都无法阻止坚定的行为者通过开源模型和平台外基础设施完全绕过平台限制。

美国不需要禁止人工智能进入政治生活。一些应用甚至可能加强民主。一个精心设计的候选人聊天机器人可以帮助选民了解候选人在关键问题上的立场,直接回答问题,或将复杂的政策翻译成通俗语言。研究甚至表明,人工智能可以减少对阴谋论的相信。

尽管如此,美国仍应采取一些措施来防范人工智能说服的威胁。首先,它必须防范内置说服能力的外国政治技术。敌对政治技术可能表现为外国制作的视频游戏,其中游戏角色呼应政治论点;社交媒体平台,其推荐算法偏向某些叙事;或语言学习应用,在日常课程中插入微妙信息。评估,如人工智能标准与创新中心最近对DeepSeek的分析,应侧重于在AI产品(尤其是来自中国、俄罗斯或伊朗等国的产品)被广泛部署之前进行识别和评估。这项工作需要情报机构、监管机构和平台之间的协调,以发现和应对风险。

其次,美国应在制定围绕AI驱动说服的规则方面发挥领导作用。这包括收紧大规模外国说服努力对计算能力的获取,因为许多行为者要么租用现有模型,要么租用GPU能力来训练自己的模型。这也意味着通过政府、标准机构和自愿的行业承诺,为能够生成政治内容的人工智能系统应如何运作建立明确的技术标准,尤其是在敏感的选举期间。在国内,美国需要确定哪些类型的披露应适用于AI生成的政治信息,同时兼顾第一修正案的关切。

最后,外国对手将试图规避这些保障措施——使用离岸服务器、开源模型或第三国的中间人。这就是为什么美国也需要外交政策应对。多边选举诚信协议应编纂一项基本规范:部署人工智能系统操纵他国选民的国家,将面临协调制裁和公开曝光的风险。

这样做可能涉及建立共享的监控基础设施,统一披露和来源标准,并准备对跨境说服活动进行协调清除——因为许多此类行动已经进入我们当前检测工具薄弱的模糊地带。美国还应推动将选举操纵作为G7和经合组织等论坛更广泛议程的一部分,确保与AI说服相关的威胁不被视为孤立的技术问题,而是集体安全挑战。

确实,确保选举安全的任务不能仅由美国承担。一个有效的AI说服雷达系统需要与我们的伙伴和盟友建立伙伴关系。影响力活动很少受国界限制,开源模型和离岸服务器将始终存在。目标不是消除它们,而是提高滥用的成本,并缩小它们能在不同司法管辖区未被发现的情况下运作的时间窗口。

人工智能说服时代即将来临,而美国的对手已做好准备。另一方面,在美国,法律已经过时,护栏过于狭窄,监督大多是自愿的。如果说过去十年是由病毒式谎言和篡改视频塑造的,那么下一个十年将由一种更微妙的力量塑造:那些听起来合理、熟悉、且足够有说服力以改变人心的信息。

对中国、俄罗斯、伊朗等国来说,利用美国开放的信息生态系统是一个战略机遇。我们需要一个战略,不将AI说服视为遥远的威胁,而是视为当前的事实。这意味着冷静评估对民主话语的风险,制定切实可行的标准,并围绕它们建立技术和法律基础设施。因为如果我们等到能看见它发生时,一切就都太晚了。

延伸思考

1. 技术中立与监管边界:人工智能在选举中的应用既有风险(如大规模个性化说服),也有潜力(如增强选民教育)。如何在保障言论自由和技术创新的同时,划定合理且有效的监管边界,防止技术被滥用于操纵民主进程?
2. 全球治理的挑战:AI驱动的选举干预具有跨国性,而各国在技术能力、法律框架和战略意图上差异巨大。国际社会应如何构建一个有效的多边合作框架,来应对这一共同威胁?现有的国际组织和协议(如联合国、G7)能否担此重任,还是需要全新的治理机制?

阅读 Technology Review 的原文,点击链接

Simon