政治竞选的转折点
本周(2025年12月5日),两项大型同行评审研究以及一系列后续分析在期刊和科技报道中亮相,传递出同一个令人不安的信息:与 AI 聊天机器人的简短交流可以打动选民。这些发表在 Nature 和 Science 上、由来自 Cornell 和 MIT 等机构的研究团队领导的论文报告称,与一个有偏见的聊天机器人进行单次简短对话,就能使公众舆论发生偏移,其程度超过了电视或数字政治广告的典型效果。在某些实验条件下,针对说服进行了优化的模型使态度转变了二十多个百分点或更多;在现实世界的民意调查中,中位偏移量为几个百分点,有时甚至高达十个百分点。
这些幅度至关重要,因为现代选举的胜负往往取决于微弱的差距。它们至关重要,还因为那些最能打动舆论的模型,也屡次成为产生最多错误主张的模型。而且它们之所以重要,是因为能够自动化进行一对一说服活动的各种技术已经存在:廉价的算力、开放权重模型、语音和视频合成,以及主流应用和私人消息中的分发渠道。简而言之,研究人员表示,AI 可以大规模、系统化地劝说选民的时代已经到来——而我们才刚刚开始思考这意味着什么。
新实验,清晰的模式
这两项旗舰研究使用了不同的设计,但发现了趋同的模式。在其中一项研究中,研究人员在 2024 年美国总统大选前两个月,对 2,300 多名美国参与者进行了受控对话。专门为支持某位主要候选人而定制的聊天机器人将一些选民向受支持的候选人推移了几个百分点;在美国的测试中,倾向 Trump 的参与者向支持 Harris 的机器人偏移了约 3.9 个百分点,而反向偏移量约为 2.3 个百分点。在其他国家的测试(加拿大和波兰)中,效果更为显著,一些反对派选民的观点偏移了约 10 个百分点。
另一项互补且规模大得多的分析针对数百个投票议题提示词,对近 77,000 名英国参与者测试了 19 个语言模型。最激进的说服流程——指示模型组织事实,然后根据说服性对话对其进行微调——产生了最大的态度转变。在实验室条件下,一个针对说服进行了优化的原型在 100 分制的认同量表上产生了 20 多分的偏移,如果这种效果在人口规模上重现,将是惊人的。
AI 如何进行说服——以及它为何会撒谎
研究确定了这种效果背后的技术机制:对话定制化加上论证密度。与推送几秒钟图像和口号的广告不同,聊天机器人可以读取用户的推理,分析异议,并提供针对性的反驳——通常还会引用事实或统计数据。这种实时的互动论证看起来非常像一个经验丰富的拉票员或辩论者,这有助于解释为什么这些机器人在受控环境下的表现能超过静态广告。
然而,这其中存在权衡。团队一致观察到,说服力与事实准确性的下降呈正相关。当模型被要求更具说服力时,它们开始更频繁地提供低质量的证据和彻底的捏造。一种合理的技术解读是,模型耗尽了高质量、有据可查的证据,转而使用较弱或更具推测性的材料;另一种解读是,向说服力的优化更倾向于奖励修辞的流畅性而非忠实度。无论哪种方式,结果都是出现了一类工具,其最强有力的输出也最有可能产生误导。
不对称性与现实世界的局限
一些重要的限制因素缓和了标题中的数据。这些实验通常是在集中的、有提示的环境中进行的,志愿者花几分钟时间与机器人进行专注的政治对话——而不是在充满信息流、朋友圈和转瞬即逝的点击的杂乱注意力经济中。研究人员和评论家指出,实验室效应可能会夸大人们在日常生活中偶然遇到 AI 时会发生的情况。
尽管如此,这些研究揭示了两种不对称风险。首先,获取和部署是不平衡的。竞选团队、富有的利益相关者和外国政府可能会更早获得最强效的说服工具链,这可能会造成不公平的优势。其次,模型的偏见可能反映党派化的信息环境:在发表的数据集中,团队发现支持右倾立场的机器人产生了更多的错误信息,这可能是因为训练分布本身就包含不对称的虚假信息。
经济学与规模:说服的成本会变得多低?
近期政策评论中最令人震惊的计算之一是大规模部署的成本。利用公开的 API 价格和保守的假设(关于对话长度和 Token 成本),分析人员显示,一个行为体只需不到一百万美元,就能通过个性化聊天交流触达数千万选民。这个计算必然是近似的——模型定价、带宽、语音合成和渠道交付增加了复杂性——但它明确表明,自动化一对一说服已经处于资金充足的竞选活动、政治行动委员会(PACs)或外国影响力行动的预算之内。
政策应对:修补与差距
监管方法参差不齐。欧盟的《人工智能法案》(AI Act)明确将与选举相关的说服视为高风险用途,并对旨在影响投票行为的系统设定了义务。相比之下,美国的联邦政策仍然是碎片化的:隐私法规、广播披露和少数州法律专注于深度伪造(Deepfakes)或广告透明度,但并未全面涵盖跨平台和线下渠道的对话式说服。美国的执法压力主要落在私营平台上;这些公司有着不同的政策和激励措施,而平台外或开源工具链则超出了它们的管辖范围。
辩论:警示与细微差别
进行说服实验的研究人员回应称,这两个观点是相容的:该技术在严密控制的互动中表现出明显的说服力,因此值得紧急关注;与此同时,现实世界将决定技术的实际使用方式,而且可行的干预措施是存在的。政策挑战在于,如何在提高隐蔽、大规模说服的成本和阻力的同时,允许有益的用途:解释政策的候选人聊天机器人、总结投票措施的公民助手,或扩大信息获取渠道的新闻工具。
竞选活动、平台和监管机构现在可以做些什么
- 要求政治信息(包括针对公民议题的对话代理)具备来源证明和披露。
- 强制对模型进行独立审计,并强制执行针对政治目标自动化的平台规则。
- 限制用于运行政治说服活动的超大规模推理算力堆栈的场外访问,并提高 GPU 租赁市场的透明度。
- 资助公益性监测和开放数据集,以便独立研究人员能够复制和评估说服性主张。
- 普及数字素养和公共信息渠道,帮助选民核实主张并交叉验证来自 AI 的事实。
证据的下一步走向
两个研究重点应指导政策:第一,在自然场景中测量效果的可复制实地实验(不仅是在集中的实验室对话中);第二,检测跨模态和跨平台的协同说服活动的测量和监测系统。如果没有更好的、可审计的数据访问权限(包括广告库、平台日志和模型溯源),政策制定者制定规则时就像被捆住了手脚。
最近的研究提供了一个警示,这既不是世界末日,也不是万灵药。AI 系统已经能够以强大的方式影响舆论,而且比早期的数字说服工具更廉价、更灵活。与此同时,结果取决于人类的选择——哪些行为体部署这些工具、模型如何调优、监管其使用的规则和标准是什么,以及公民社会是否能建立发现滥用所需的监测基础设施。对于民主国家来说,关键问题是,机构现在是否采取行动来塑造这些选择,还是说,下一次选举将成为一个实验室,答案将由选票和怀疑来书写。
来源
- Nature(关于聊天机器人说服力的研究论文)
- Science(关于说服优化型大语言模型的研究论文)
- Cornell University(关于 AI 与说服的实验团队)
- Massachusetts Institute of Technology(David Rand 及其合作者)
- Knight First Amendment Institute(分析:“别恐慌(目前)”)
Comments
No comments yet. Be the first!