AI政治说服力研究:超越科幻想象的真相

0

人工智能(AI)聊天机器人在政治领域的影响力一直是公众关注的焦点。两年前,Sam Altman曾预测AI系统将在实现通用人工智能之前就具备超人类的说服能力,这一预测引发了人们对AI可能影响民主选举的担忧。然而,最新一项规模空前的研究表明,AI的政治说服力远未达到科幻小说中描绘的超级水平,但也揭示了一些更为复杂的问题。

研究背景:AI说服力的公众认知

关于AI对政治影响的公众讨论,大多源于反乌托邦科幻小说中的概念。大型语言模型(LLM)几乎可以获取关于任何议题或候选人的所有事实和故事,它们处理了来自心理学、谈判学和人类操纵学书籍的信息,并能依靠全球数据中心中强大的计算能力。此外,通过数百次在线互动,它们通常可以访问大量关于用户的个人信息。

从这种角度看,与强大的AI系统交流就像是与一个无所不知、几乎了解你一切的智能体互动。LLM确实可能看起来有些令人不安。这项新的大型AI说服力研究旨在分解这些令人不安的愿景,检验它们是否经得起科学检验。

研究方法:大规模实验设计

由英国AI安全研究所、MIT、斯坦福大学、卡内基梅隆大学等多家机构组成的科学家团队进行了迄今为止最大规模的AI说服力研究,涉及近8万名英国参与者。研究团队测试了19个LLM,包括最强大的模型,如ChatGPT的三个不同版本和xAI的Grok-3测试版,以及一系列较小的开源模型。

这些AI被要求就团队选定的707个政治议题中的特定立场进行辩护或反对。辩护方式是通过与通过众包平台招募的参与者进行简短对话。每位参与者在与AI对话前后,都需要对分配给他们的特定政治立场的同意程度在1到100的量表上进行评分。

科学家将说服力定义为对话前后同意评分的差异。一个对照组在与相同的AI模型讨论相同议题时,这些模型没有被要求说服他们。

"我们不仅想测试AI的说服力有多强,还想了解是什么让它具有说服力,"英国AI安全研究所研究主管兼该研究合著者Chris Summerfield表示。随着研究人员测试各种说服策略,AI具有"超级人类说服"能力的想法开始瓦解。

研究发现:打破三个AI说服力迷思

迷思一:模型规模决定说服力

第一个被打破的观念是,说服力应该随着模型规模的增加而提高。事实证明,像ChatGPT或Grok-3测试版这样的大型AI系统确实比小型模型有优势,但这种优势相对微小。比规模更重要的因素是模型接收的后训练类型。让模型从成功对话的有限数据库中学习并模仿从中提取的模式,效果远好于添加数十亿参数和纯粹的计算能力。

这种方法可以与奖励建模结合使用,即另一个AI对候选回复的说服力进行评分,并选择得分最高的回复给用户。当两者结合使用时,大型模型和小型模型之间的差距基本上被消除了。

"通过这样的说服后训练,我们在笔记本电脑上训练的模型达到了与Chat GPT-4o相当的说服效果,"英国AI安全研究所研究员兼该研究合著者Kobi Hackenburg表示。

迷思二:个性化数据增强说服力

第二个被推翻的观念是使用个人数据的威力。为此,团队比较了模型在事先了解参与者政治观点时与缺乏这些数据时获得的说服分数。更进一步,科学家还测试了当AI知道参与者的性别、年龄、政治意识形态或党派归属时,说服力是否会提高。与模型规模一样,基于此类数据创建的个性化消息的影响虽然可以测量,但非常小。

迷思三:心理操控技术提升说服力

最后,一个不成立的观点是AI可能掌握使用高级心理操控技术的潜力。科学家明确提示AI使用诸如道德重构等技术,即使用受众自己的道德价值观来呈现论点。他们还尝试了深度民意调查,即与人们进行长时间的共情对话,以促使他们反思并最终转变观点。

结果的说服力与同一模型被提示使用事实和证据支持其主张或只是尽可能具有说服力而不指定任何说服方法时的效果进行了比较。事实证明,大量使用事实和证据是明显的赢家,仅略高于未指定说服策略的基线方法。使用各种心理诡计实际上使表现显著变差。

研究结果:AI说服力的实际效果

总体而言,与对照组相比,AI模型将参与者的同意评分平均改变了9.4%。表现最好的主流AI模型是Chat GPT 4o,得分接近12%,其次是GPT 4.5(10.51%)和Grok-3(9.05%)。作为参考,像书面宣言这样的静态政治广告的说服效果约为6.1%。对话式AI比这些广告大约40-50%更有说服力,但这远非"超级人类"。

AI说服力研究数据

研究引发的思考:准确性与普及风险

令人不安的准确性问题

虽然获胜的"事实和证据"策略起初看起来不错,但AI在实施它时存在一些问题。当团队注意到增加对话的信息密度使AI更具说服力时,他们开始提示模型进一步提高信息密度。他们注意到,随着AI使用更多事实陈述,它们的准确性也降低了——它们基本上开始歪曲事实或编造更多内容。

Hackenburg及其同事指出,我们无法看到这里看到的效果是因果关系还是相关性——AI是因为歪曲事实而变得更有说服力,还是因为要求它们做出更多事实陈述而产生不准确陈述的副产品。

低普及的双面性

使AI模型具有政治说服力所需的计算能力相对较低这一发现也是一把双刃剑。它反驳了只有少数强大行为者才能获得可能影响公众舆论的说服性AI的愿景。同时,意识到每个人都可以在笔记本电脑上运行这样的AI也带来了自己的担忧。

"说服是通往权力和影响力的途径——这是我们想要赢得选举或达成数百万美元交易时所做的,"Summerfield说。"但许多形式的AI滥用可能涉及说服。想想欺诈或诈骗、极端化或引诱。所有这些都涉及说服。"

参与动机的疑问

但研究中最重要的疑问或许是导致较高说服分数的参与者参与动机的相对较高。毕竟,即使是最有说服力的AI,当你关闭聊天窗口时也无法打动你。

Hackenburg实验中的参与者被告知他们将与AI交谈,并且AI会试图说服他们。为了获得报酬,参与者只需进行两个回合的对话(他们最多被限制为10个回合)。平均对话长度为七个回合,考虑到大多数人远远超出了最低要求,这似乎有些令人惊讶。当人们意识到自己正在与聊天机器人交谈时,大多数人只会翻个白眼然后断开连接。

如果没有任何报酬,Hackenburg的研究参与者是否还会如此愿意在业余时间与互联网上的随机聊天机器人进行政治辩论?"不清楚我们的结果将如何推广到现实世界,"Hackenburg说。

结论:重新审视AI的政治影响力

这项研究不仅打破了关于AI政治说服力的几个常见迷思,也为理解AI在政治领域的影响提供了科学依据。虽然AI的说服力不如预期,但它们仍然比传统政治广告更有效,且随着技术发展可能会进一步增强。研究也提醒我们,AI在增加信息密度时的准确性下降问题,以及低成本普及可能带来的滥用风险,都是需要关注的议题。

未来研究需要进一步探索AI在真实世界中的说服效果,以及如何在不损害准确性的前提下提高AI的说服力。同时,我们也需要思考如何提高公众的数字素养,以更好地识别和应对AI可能带来的政治影响。

展望:AI与政治传播的未来

随着AI技术的不断发展,其在政治传播中的应用也将继续演变。这项研究为我们提供了一个基础框架,但仍有更多问题需要探索:AI如何影响不同政治立场的受众?长期接触AI政治信息会如何塑造人们的政治态度?我们如何平衡AI在政治传播中的有效性与伦理边界?

这些问题不仅需要科学研究者的关注,也需要政策制定者、技术开发者和公众的共同参与。只有多方协作,我们才能确保AI技术的发展服务于民主政治的健康发展和公众利益的最大化。