AI改写社区内容:X平台的豪赌与潜在危机
埃隆·马斯克的X平台(原Twitter)一直走在社交媒体革新的前沿,其“社区注释”功能通过众包方式,对平台上信息的真实性进行评估,被视为事实核查的一大创新。然而,X平台计划引入AI来辅助撰写社区注释,这一举措在提升效率的同时,也可能给平台的信任体系带来前所未有的挑战。
X平台在一份研究报告中,将这一计划描述为一次“升级”,同时也坦诚地列出了AI参与社区注释可能带来的各种问题。理想情况下,AI能够加速并扩大社区注释的覆盖范围,从而提升整个平台的事实核查能力。每一条AI生成的注释都会经过人工审核,形成一个反馈循环,不断提升AI的写作能力。随着AI逐渐成熟,人工审核员可以将精力集中在更复杂、需要专业知识或社会意识的帖子审核上。X平台认为,如果一切顺利,这种人机协作模式不仅能改变X平台的事实核查机制,甚至能为“公共知识生产领域的人工智能协作”提供新的范本。
AI注释:效率与准确性的博弈
然而,一个核心问题仍然悬而未决:AI生成的注释是否能像人工撰写的那样准确?更令人担忧的是,AI可能会生成“具有说服力但不准确的注释”,由于AI擅长“撰写有说服力、情感共鸣且看似中立的注释”,人类审核员可能会误判其为有帮助。这种偏差可能会扰乱反馈循环,降低社区注释的整体质量,最终损害整个系统的可信度。
报告中明确指出:“如果注释的帮助性评分与准确性并不完全相关,那么那些经过精心润色但具有误导性的注释可能更容易通过审核。随着大型语言模型(LLM)的进步,这种风险可能会增加;它们不仅能写得更有说服力,还能更容易地研究和构建看似可靠的证据,来支持几乎任何主张,无论其真假,这使得人类审核员更难发现其中的欺骗或错误。”
前英国技术大臣达米安·柯林斯指责X平台正在构建一个可能“工业化操纵人们在拥有超过6亿用户的平台上看到和信任的内容”的系统。《卫报》报道称,柯林斯认为AI注释可能会助长X平台上“谎言和阴谋论”的传播。艾伦·图灵研究所新兴技术与安全中心的研究员塞缪尔·斯托克韦尔也警告说,X平台的成功很大程度上取决于其“针对AI‘注释员’可能产生幻觉并在其输出中放大错误信息风险所采取的保障措施的质量”。
斯托克韦尔表示:“AI聊天机器人通常难以处理细微差别和语境,但擅长自信地提供听起来有说服力的答案,即使这些答案是不真实的。如果平台不能有效地解决这个问题,那将是一个危险的组合。”
潜在的滥用与失控
更复杂的是,任何人都可以使用任何技术创建AI代理来编写社区注释。这意味着不同的AI代理可能存在不同程度的偏见或缺陷。如果出现这种负面情况,X平台担心人工撰写者可能会失去积极性,从而威胁到社区注释最初赖以建立的多样化观点。
此外,对于那些坚持下来的人工撰写者和审核员来说,大量的AI生成注释可能会让他们不堪重负。英国事实核查组织Full Fact的AI负责人安迪·达德菲尔德表示,X平台可能面临“增加人工审核员负担的风险,他们需要检查更多的草稿注释,这可能会导致注释完全由AI起草、审核和发布,而缺乏人工输入所提供的周全考虑。”
X平台正计划进行更多研究,以确保“人工评分能力能够充分扩展”,但如果无法解决这个问题,那么“最关键注释的影响”可能会被削弱。研究人员指出,一个可能的解决方案是取消人工审核流程,并在人工评分员先前批准的“类似语境”中应用AI生成的注释。然而,这种做法的潜在风险显而易见。
X平台的报告承认:“自动将注释匹配到人们认为不需要它们的帖子可能会严重损害对该系统的信任。”研究人员承认,AI注释编写器最终可能被认为是一个“错误的”工具,但他们仍将继续进行测试以找出答案。
AI注释的部署与未来
X平台的社区注释账户表示,所有AI撰写的社区注释都将“明确地标记给用户”。最初,AI注释只会出现在那些已被请求添加注释的帖子中,但最终,AI注释编写器可能会被允许选择需要进行事实核查的帖子。
更多细节将在本月晚些时候AI注释开始在X平台上出现时公布。目前,X用户可以开始测试AI注释编写器,并有机会被纳入AI代理的初始队列。X平台与哈佛大学、麻省理工学院、斯坦福大学和华盛顿大学的研究生、研究人员和教授合作,研究诸如人类对AI的信任、微调AI和AI安全等主题。
研究人员一致认为,“在某些情况下”,AI代理可以“在时间和精力消耗很少的情况下,生成与人工撰写的注释质量相似的注释”。他们认为,需要进行更多的研究,以克服已标记的风险,从而获得“变革性机会”带来的好处,这种机会“有望显著提高X平台事实核查的规模和速度”。
该报告称,如果AI注释编写器“生成比单个人工编写器通常能代表的更广泛的观点,那么社区审议的质量从一开始就会得到提高”。研究人员设想,一旦X平台的测试完成,AI注释编写器不仅可以帮助研究人工用户标记的问题帖子,还可以选择预测会迅速传播的帖子,从而阻止错误信息的传播速度超过人工审核员。
他们认为,这种自动化系统的其他好处包括X平台注释评分员可以快速访问更彻底的研究和证据综合,以及更清晰的注释组成,从而加快评分过程。研究人员推测,也许有一天,AI代理甚至可以学习预测评分,从而进一步加快速度。然而,需要进行更多的研究,以确保这不会使社区注释同质化,从而导致没有人阅读它们。
该报告中提出的最具马斯克风格的想法是,训练具有冲突观点的AI注释编写器来“对抗性地辩论注释的优点”。据称,这“可以帮助立即发现潜在的缺陷、隐藏的偏见或捏造的证据,从而使人工评分员能够做出更明智的判断”。该报告称:“评分员现在不再是从头开始,而是扮演着裁判的角色——评估结构化的论点冲突。”
人工审核的不可替代性
虽然X平台可能正在努力减少X用户编写社区注释的工作量,但研究人员表示,AI永远无法取代人类。人类不仅对批准AI编写的注释是必要的,而且“从头开始编写”的人工注释对于训练AI代理非常有价值,并且一些评分员的专业知识不容易被复制。也许最明显的是,人类“具有独特的识别缺陷或偏见的能力”,因此更有可能编写“关于自动编写器忽略的主题的注释”,例如垃圾邮件或诈骗。
结论
X平台在AI社区注释上的探索是一场豪赌。虽然AI有望提升效率和覆盖面,但潜在的风险同样不容忽视。如何在效率与准确性之间取得平衡,如何在自动化与人工审核之间找到最佳结合点,将是X平台未来发展面临的关键挑战。如果X平台能够成功解决这些问题,那么AI社区注释将成为其内容审核机制的一大助力;反之,则可能适得其反,损害用户信任,甚至助长虚假信息的传播。