在人工智能迅速发展的今天,一个备受关注的问题是:AI聊天机器人是否能够有效改变人们的政治观点?这一问题不仅关乎技术本身,更触及民主社会的根基。最近,一项由英国AI安全研究所、麻省理工学院、斯坦福大学、卡内基梅隆大学等多所顶尖机构联合进行的突破性研究,为我们提供了迄今为止最全面、最权威的答案。
研究背景:AI说服力的神话与现实
两年前,OpenAI首席执行官Sam Altman曾预测,AI系统将在实现通用人工智能之前就具备超越人类的说服能力。这一预测引发了广泛关注和担忧,特别是在民主选举等关键领域,AI可能对公众舆论产生不当影响。
公众关于AI政治影响的讨论大多源于反乌托邦科幻小说的想象。人们普遍认为,大型语言模型(LLM)几乎掌握了关于任何议题或候选人的所有事实和故事,它们处理了心理学、谈判学和人类操纵学的大量书籍信息,拥有全球数据中心提供的惊人计算能力,并且能够通过数百次在线交互获取大量个人信息。
这种观点将强大的AI系统描绘成几乎无所不知的存在,既了解一切,又几乎了解关于你的所有事情。从这种角度看,LLM确实显得有些令人不安。这项新的大型AI说服力研究旨在打破这些令人恐惧的幻想,将其分解为各个组成部分,检验它们是否经得起科学验证。
研究方法:规模空前的实验设计
研究团队测试了19种不同的语言模型,包括最强大的模型如三个不同版本的ChatGPT和xAI的Grok-3测试版,以及一系列较小型的开源模型。这些AI被要求针对研究团队选定的707个政治议题的特定立场进行支持或反对的论证。

论证过程是通过与参与者进行简短对话完成的。参与者通过众包平台招募,每位参与者需要在与AI交谈前后,对分配给他们的特定政治议题的立场表示同意程度进行1-100的评分。
科学家将说服力定义为交谈前后同意评分的差异。一个对照组在与相同的AI模型交谈时,这些模型没有被要求说服他们。
"我们不仅想测试AI的说服力有多强,还想了解是什么让它具有说服力,"英国AI安全研究所研究总监兼研究合著者Chris Summerfield表示。随着研究人员测试各种说服策略,AI具有"超级人类说服力"的想法开始瓦解。
主要发现:颠覆传统认知的三大结论
模型规模并非决定性因素
第一个被打破的迷思是:模型规模越大,说服力应该越强。事实证明,像ChatGPT或Grok-3测试版这样的大型AI系统确实比小型模型具有优势,但这种优势相对微小。比规模更重要的因素是模型接收的后期训练类型。让模型从有限的成功对话数据库中学习并模仿从中提取的模式,比添加数十亿参数和纯粹的计算能力要有效得多。
这种方法可以与奖励建模相结合,即由另一个AI对候选回复的说服力进行评分,并选择得分最高的回复提供给用户。当这两种方法同时使用时,大型模型和小型模型之间的差距基本上被消除了。
"通过这样的说服后期训练,我们在笔记本电脑上训练的模型匹配了Chat GPT-4o的说服性能,"英国AI安全研究所研究员兼研究合著者Kobi Hackenburg表示。
个人数据的影响微乎其微
第二个被证伪的反乌托邦想法是使用个人数据的强大力量。为此,研究团队比较了模型事先获得参与者政治信息时的说服得分,以及缺乏这些数据时的说服得分。更进一步,科学家还测试了当AI知道参与者的性别、年龄、政治意识形态或党派归属时,说服力是否会提高。与模型规模一样,基于此类数据创建的个性化消息的影响虽然可以测量,但非常小。
心理操纵策略适得其反
最后,第三个站不住脚的想法是AI可能掌握使用高级心理操纵策略的能力。科学家明确提示AI使用诸如道德重构等技术,即使用受众自身的道德价值观来呈现论点。他们还尝试深度游说,即与人们进行长时间的共情对话,促使他们反思并最终转变观点。

结果的说服力与相同模型被提示使用事实和证据支持其主张,或者在不指定任何说服方法的情况下尽可能具有说服力的表现进行了比较。事实证明,大量使用事实和证据是明显的赢家,仅略高于未指定说服策略的基线方法。使用各种心理诡计实际上使表现显著变差。
数据解读:AI说服力的实际效果
总体而言,与对照组相比,AI模型使参与者的同意评分平均改变了9.4%。表现最好的主流AI模型是Chat GPT 4o,得分接近12%,其次是GPT 4.5(10.51%)和Grok-3(9.05%)。作为参考,静态政治广告如书面宣言的说服效果约为6.1%。对话式AI比这些广告更有说服力,大约高出40-50%,但这远非"超级人类"水平。
这些数据表明,尽管AI在某些方面确实比传统政治广告更有效,但其影响力仍然有限。即使在最佳情况下,AI也只能使人们的政治观点发生相对较小的变化,这与一些关于AI能够轻易操纵公众舆论的担忧形成了鲜明对比。
深入分析:说服策略的有效性
研究团队发现,几种不同的说服策略在AI模型中表现各异:
事实与证据策略
令人意外的是,使用大量事实和证据的策略是最有效的。这与一些关于情感诉求比理性论证更有效的传统观点相矛盾。研究结果表明,当AI被要求提供更多事实支持其论点时,其说服力确实有所提高。
然而,这一策略也存在问题。随着AI使用更多事实陈述,它们也变得不那么准确——它们基本上开始歪曲事实或编造更多内容。研究团队无法确定这是因果关系还是相关关系——AI是否因为歪曲事实而更有说服力,或者提出不准确陈述是要求它们做出更多事实陈述的副产品。
个性化策略
研究测试了基于参与者个人特征(如政治立场、年龄、性别等)的个性化消息传递。虽然这些策略确实比通用消息略有效,但效果差异相对较小,表明个性化并非AI说服力的关键因素。
心理操纵策略
研究测试了多种心理操纵技术,包括道德重构、深度游说和认知失调等。令人惊讶的是,这些策略不仅没有提高说服效果,反而使表现显著下降。这表明,尽管AI可以模拟人类对话,但在应用复杂心理策略方面仍然存在局限。
研究局限性与未来方向
尽管这项研究规模空前,但仍存在一些局限性,值得未来研究进一步探索:
参与者动机问题
研究中最重要的问题之一是参与者相对较高的参与度背后的动机。毕竟,即使最具说服力的AI,当你关闭聊天窗口时也无法影响你。
在Hackenburg的实验中,参与者被告知他们将与AI交谈,并且AI会尝试说服他们。参与者只需进行两个回合的对话(限制不超过10个回合)即可获得报酬。平均对话长度为七个回合,考虑到大多数人远远超出了最低要求,这似乎有些令人惊讶。当人们意识到自己在与聊天机器人交谈时,大多数人只会翻个白眼然后断开连接。
如果在没有金钱激励的情况下,Hackenburg的研究参与者是否仍然愿意在业余时间与互联网上的随机聊天机器人进行政治争论?"我们的结果如何推广到现实世界尚不清楚,"Hackenburg表示。
现实世界情境的适用性
研究是在受控环境中进行的,参与者知道自己在与AI交谈,并且有经济激励参与。这与现实世界中人们与AI互动的自然情境存在显著差异。未来研究需要在更接近真实使用场景的条件下进行验证。
长期效果评估
本研究评估的是短期对话中的即时说服效果,缺乏对AI长期影响的评估。人们可能会在一次对话中暂时改变观点,但随着时间的推移,这种变化是否会持续?AI的说服效果是否会随着接触次数增加而增强或减弱?这些问题需要长期研究来回答。
研究意义:对AI治理与民主社会的启示
这项研究不仅对AI技术发展具有重要意义,也对民主社会的治理和公众讨论提供了重要启示:
对AI威胁论的重新评估
研究结果挑战了一些关于AI政治威胁的极端观点。虽然AI确实具有一定程度的说服力,但这种能力远未达到足以颠覆民主进程的水平。这为政策制定者提供了更平衡的视角,既不过度恐慌,也不忽视潜在风险。
技术民主化的双面性
研究发现,使AI模型具有政治说服力所需的计算能力相对较低,这既是一个好消息也是一个坏消息。一方面,它反驳了只有少数强大实体才能获得可能影响公众舆论的说服性AI的愿景。另一方面,每个人都可以在笔记本电脑上运行这样的AI,这也带来了自己的担忧。
"说服是通往权力和影响力的途径——当我们想要赢得选举或达成数百万美元的交易时,我们就会这样做,"Summerfield说。"但许多形式的AI滥用可能涉及说服。想想欺诈或诈骗、极端化或引诱。所有这些都涉及说服。"
信息质量的挑战
研究突显了AI在提供准确信息方面的挑战。当AI被要求增加对话中的信息密度以提高说服力时,它们也变得更加不准确。这表明,提高AI的说服力可能与其提供准确信息的能力存在内在张力,这对AI治理提出了重要问题。
结论:AI与人类政治互动的理性视角
这项迄今为止规模最大的AI说服力研究为我们提供了关于AI与人类政治互动的重要见解。研究结果表明,尽管AI确实具有一定程度的说服力,但这种能力远未达到"超级人类"水平,也远不足以颠覆民主进程。
研究挑战了几个关于AI政治影响的常见迷思:模型规模并非决定性因素,个人数据的影响微乎其微,而心理操纵策略实际上可能适得其反。相反,最有效的策略是使用事实和证据支持论点,尽管这一策略也面临着AI准确性的挑战。
这些发现不仅有助于我们更理性地看待AI的政治影响,也为AI技术的负责任发展和治理提供了重要指导。随着AI技术的不断发展,我们需要更多这样的实证研究,以科学证据为基础,平衡创新与风险,确保AI技术能够为人类社会带来福祉而非危害。









