在人工智能技术迅猛发展的今天,一个令人担忧的问题逐渐浮出水面:AI聊天机器人是否能够有效改变人们的政治观点,从而影响民主选举和社会进程?Sam Altman曾预测,AI系统将在实现通用智能之前就具备超人类的说服能力。这一预测引发了公众对AI可能操纵舆论的担忧。
研究概述:最大规模AI说服力实验
为了验证这一假设,英国AI安全研究所、麻省理工学院、斯坦福大学、卡内基梅隆大学等机构的研究人员进行了迄今为止规模最大的AI说服力研究,招募了近8万名英国参与者。研究团队测试了19个大型语言模型(LLM),包括ChatGPT的三个不同版本、xAI的Grok-3 beta以及其他多个开源模型。

这些AI被要求针对研究团队选择的707个政治议题中的特定立场进行支持或反对。参与者在与AI进行简短对话前后,需要在1-100的范围内对特定政治立场的同意程度进行评分。研究通过比较对话前后的评分差异来衡量AI的说服力。
颠覆认知:三大AI说服力神话被打破
研究结果表明,AI聊天机器人在政治说服方面的效果远未达到"超级人类"水平,同时颠覆了几个关于AI说服力的普遍认知。
模型规模并非决定因素
传统观点认为,更大的AI模型应该具有更强的说服能力。然而研究显示,虽然ChatGPT和Grok-3 beta等大型系统确实比小型模型略有优势,但这种差距微乎其微。事实上,比模型规模更重要的是模型的训练方式。
研究发现,让AI从有限的成功对话数据库中学习并模仿其中的模式,比单纯增加数十亿参数和计算能力更为有效。这种方法结合奖励建模(由另一个AI评估回复的说服力并选择最佳回复)后,大型模型和小型模型之间的说服力差距几乎被完全消除。
"通过这种说服力后训练,我们在笔记本电脑上训练的模型达到了与ChatGPT-4相当的说服效果。"——英国AI安全研究所研究员Kobi Hackenburg
个性化信息效果有限
另一个被打破的迷思是利用个人数据进行个性化宣传的有效性。研究团队比较了AI在获取参与者政治观点信息前后的说服效果,并进一步测试了当AI了解参与者的性别、年龄、政治意识形态或党派归属时说服力的变化。
结果表明,基于这些数据定制的个性化信息确实能产生可测量的效果,但这种效果非常微小,与模型规模的影响类似。
心理操纵技巧适得其反
研究团队还测试了AI使用高级心理操纵技巧的效果,包括道德重构(使用受众自身的道德价值观呈现论点)和深度游说(通过共情对话引导人们反思并最终改变观点)。
令人惊讶的是,使用大量事实和证据的策略明显胜出,效果略优于不指定任何说服策略的基准方法。而各种心理技巧的实际表现则显著更差。
研究结果:AI的说服力究竟有多强?
整体而言,与控制组相比,AI模型平均改变了参与者9.4%的同意评分。表现最佳的AI模型是ChatGPT 4o,接近12%的评分变化,其次是GPT-4.5(10.51%)和Grok-3(9.05%)。作为对比,静态政治宣传材料(如书面宣言)的说服效果约为6.1%。
这意味着对话式AI比传统政治广告更具说服力,效果提高了40-50%,但这与"超级人类"的说服力相去甚远。

新发现:AI说服力的双刃剑
虽然研究削弱了一些关于AI的末日论调,但也揭示了一些新的问题。
事实与准确性的矛盾
研究中最令人担忧的发现之一是,当AI被要求增加信息密度以提高说服力时,其准确性却随之下降。AI开始更多地歪曲事实或编造信息。
研究团队尚不确定这是因果关系还是相关性——AI是否因为歪曲事实而更有说服力,还是因为被要求提供更多事实陈述而产生了不准确信息。
低成本AI的潜在风险
另一个重要发现是,使AI模型具有政治说服力所需的计算资源相对较低。这一发现既缓解了对只有少数强大实体能够获取可能影响公众舆论的说服性AI的担忧,同时也带来了新的问题。
"说服是通往权力和影响力的途径——这是我们赢得选举或达成数百万美元交易的方式,"英国AI安全研究所研究主任Chris Summerfield表示,"但许多AI滥用形式可能涉及说服。想想欺诈或诈骗、极端化或网络诱骗。这些都涉及说服。"
参与者动机的影响
研究中最重要的问题之一是参与者高度参与动机的影响。毕竟,即使最有说服力的AI,当人们关闭聊天窗口时也无法影响他们。
在Hackenburg的实验中,参与者被告知他们将与AI对话,且AI会尝试说服他们。参与者只需进行两轮对话(最多限制为10轮)即可获得报酬。然而,平均对话长度为7轮,大多数人远超最低要求。在现实生活中,大多数人意识到自己在与聊天机器人对话后只会翻个白眼然后断开连接。
"我们的结果如何推广到现实世界尚不清楚,"Hackenburg承认道,"如果没有金钱激励,人们是否还愿意在业余时间与网络上的随机聊天机器人进行政治争论,这值得怀疑。"
研究意义与未来展望
这项研究为我们理解AI在政治领域的影响提供了重要视角。首先,它表明AI的说服力被严重高估,公众对AI可能操纵民主进程的担忧可能被夸大。
其次,研究揭示了AI说服力的关键因素——训练方式和内容策略比模型规模更重要,这为开发更有效、更负责任的AI系统提供了方向。
最后,研究提醒我们关注AI可能带来的新风险,尤其是在低成本AI普及的情况下,如何防止AI被用于欺诈、极端化或其他有害目的。
随着AI技术的不断发展,这类研究将变得越来越重要。我们需要持续评估AI对社会的影响,确保技术的发展方向符合人类福祉,同时避免不必要的恐慌或过度乐观。
结论
这项大规模研究为我们提供了关于AI政治说服力的科学依据。虽然AI确实能够影响人们的政治观点,但其效果远未达到"超级人类"水平。研究结果表明,AI的说服力主要取决于其训练方式和内容策略,而非简单的模型规模或计算能力。
同时,研究也揭示了AI在追求说服力过程中可能面临的问题,如事实准确性的下降。这些发现为我们理性看待AI在政治领域的影响提供了重要视角,也为未来AI技术的发展和监管提供了有价值的参考。
随着AI技术的不断进步,我们需要继续开展类似研究,以更好地理解AI与社会互动的复杂性,确保技术的发展方向符合人类社会的长远利益。









