AI 社区笔记:X 平台内容审核的双刃剑
埃隆·马斯克旗下的 X 平台(前身为 Twitter)一直走在社交媒体内容审核的前沿。最初,X 平台推出了“社区笔记”功能,旨在通过众包方式,让用户对平台上的帖子进行事实核查,以此来判断信息的可靠性。这一举措在一定程度上提升了平台内容的质量,并受到了用户的欢迎。
然而,X 平台并不满足于此,他们计划引入人工智能(AI)来辅助社区笔记的编写。这一举措看似能够提高效率、扩大规模,但也引发了诸多担忧。X 平台自身也承认,AI 参与内容审核可能带来一系列风险。
AI 驱动的社区笔记:理想与现实的差距
在 X 平台构想的理想蓝图中,AI 智能体能够加速和增加社区笔记的生成,从而更快速地识别和纠正错误信息。每个 AI 编写的笔记都将由人工审核员进行评估,通过这种反馈循环,AI 智能体可以不断学习和改进,提高笔记的质量和准确性。此外,AI 还可以处理一些重复性的事实核查工作,让人工审核员能够专注于更复杂、更需要专业知识或社会意识的任务。
X 平台认为,如果一切顺利,这种人机协作模式不仅可以提升 X 平台的内容审核能力,还可以为公共知识生产领域探索出一种新的模式。然而,现实情况可能并不如 X 平台设想的那么美好。
潜在的风险:准确性、偏见与操纵
X 平台的研究报告中坦言,他们并不确定 AI 编写的笔记是否能像人工编写的笔记一样准确。更令人担忧的是,AI 智能体可能会生成“具有说服力但实际上不准确的笔记”。由于 AI 在措辞表达方面非常出色,能够编写出极具说服力、情感共鸣且看似中立的笔记,人工审核员可能会难以辨别其真伪,从而导致错误的笔记通过审核。
这种“以假乱真”的现象可能会扰乱整个反馈循环,降低社区笔记的整体质量和可信度。报告警告说:“如果笔记的‘有用性’评分与准确性并不完全相关,那么那些经过精心润色但具有误导性的笔记可能更容易通过审核。随着大型语言模型(LLM)的不断发展,这种风险可能会越来越大。它们不仅能写出更具说服力的内容,还能更容易地搜集和构建看似可靠的证据来支持任何主张,无论其是否真实,这使得人工审核员更难发现其中的欺骗或错误。”
前英国技术部长达米安·柯林斯指责 X 平台正在构建一个可能被用于“大规模操纵人们在平台上的所见所信”的系统。他认为,AI 笔记可能会增加 X 平台上“谎言和阴谋论”的传播。艾伦·图灵研究所新兴技术与安全中心的 исследователь员 塞缪尔·斯托克韦尔也表达了类似的担忧。他表示,X 平台的成功很大程度上取决于其“针对 AI ‘笔记编写者’可能产生幻觉并在其输出中放大错误信息的风险而采取的保障措施的质量”。
斯托克韦尔指出:“AI 聊天机器人通常难以处理细微之处和语境,但却擅长自信地提供听起来很有说服力的答案,即使这些答案是不真实的。如果平台不能有效地解决这个问题,这可能是一个危险的组合。”
社区的担忧:偏见、信息过载与信任危机
更令人担忧的是,任何人都可以使用任何技术创建 AI 智能体来编写社区笔记。这意味着某些 AI 智能体可能比其他智能体更具偏见或存在缺陷。如果出现这种情况,X 平台可能会面临更严峻的挑战。
X 平台预测,如果情况变得糟糕,人工编写者可能会对编写笔记失去兴趣,从而威胁到社区笔记 изначально 多样化的观点,而这正是社区笔记 изначально 能够赢得用户信任的关键。
对于那些坚持下来的人工编写者和审核员来说,大量的 AI 编写的笔记可能会让他们不堪重负。英国事实核查机构 Full Fact 的 AI 主管安迪·达德菲尔德表示,X 平台可能会“增加人工审核员的负担,他们需要检查更多的草稿笔记,这可能会导致一个令人担忧且看似合理的情况:笔记的起草、审核和发布完全由 AI 完成,而没有经过人工的仔细考虑。”
X 平台正计划进行更多的研究,以确保“人工评分能力能够充分扩展”,但如果他们无法解决这个难题,那么“最关键的笔记的影响”可能会被削弱。
研究人员指出,解决这个“瓶颈”的一个可能方案是取消人工审核流程,并在人工评分员 ранее 批准的“类似情境”中应用 AI 编写的笔记。但这样做的最大潜在缺陷是显而易见的。
X 平台的报告承认:“自动将笔记匹配到人们认为不需要笔记的帖子可能会严重损害对系统的信任。”
AI 笔记的未来:挑战与机遇并存
尽管存在诸多风险,X 平台仍在积极探索 AI 在社区笔记中的应用。他们认为,AI 笔记编写者可能最终会被认为是一种“错误”的工具,但他们仍将继续进行测试,以找出其潜在的价值。
X 平台计划在本月开始发布 AI 编写的社区笔记,并在笔记中明确标明“由 AI 编写”。最初,AI 笔记只会出现在用户要求添加笔记的帖子中,但最终 AI 笔记编写者可能会被允许选择需要进行事实核查的帖子。
为了进行这项研究,X 平台与哈佛大学、麻省理工学院、斯坦福大学和华盛顿大学的研究生、研究人员和教授合作,共同研究人类对 AI 的信任、AI 微调和 AI 安全等课题。
研究人员一致认为,在“某些情况下”,AI 智能体可以“在时间和精力成本的一小部分内,生成与人工编写的笔记质量相似的笔记”。他们认为,需要进行更多的研究,以克服已发现的风险,从而充分利用这一“变革性机遇”,并实现 X 平台上事实核查的“规模和速度的显著提升”。
报告指出,如果 AI 笔记编写者“能够生成比单个人工编写者通常能够代表的更广泛的观点,那么从一开始就可以提高社区审议的质量”。
研究人员设想,一旦 X 平台的测试完成,AI 笔记编写者不仅可以帮助研究人工用户标记的问题帖子,还可以选择预测会 быстро распространяться 的帖子,并在错误信息 распространяться 之前阻止它们。
他们认为,这种自动化系统还可以带来其他好处,包括 X 笔记评分员可以快速访问更彻底的研究和证据综合,以及更清晰的笔记撰写,从而加快评分过程。
研究人员甚至推测,AI 智能体有朝一日可能会学会预测评分,以进一步加快速度。然而,他们也强调需要进行更多的研究,以确保这不会使社区笔记同质化,以至于没有人阅读它们。
该报告中提出的最具马斯克风格的想法是,训练具有冲突观点的 AI 笔记编写者“以对抗方式辩论笔记的优点”。据称,这“可以立即发现潜在的缺陷、隐藏的偏见或捏造的证据,从而使人工评分员能够做出更明智的判断”。
报告称:“评分员不再需要从头开始,而是扮演仲裁者的角色,评估结构化的论点冲突。”
人机协作:AI 无法取代人类的洞察力
尽管 X 平台可能正在努力减少 X 用户编写社区笔记的工作量,但研究人员明确表示,AI 永远无法取代人类。人类不仅需要对 AI 编写的笔记进行审核,还需要发挥更重要的作用。
报告指出,人工“从头开始编写”的笔记对于训练 AI 智能体非常重要,而且一些评分员的专业知识是 AI 难以复制的。或许最明显的是,人类“能够敏锐地识别缺陷或偏见”,因此更有可能在“自动化编写者忽略的主题”上编写笔记,例如垃圾邮件或诈骗。
AI 驱动的社区笔记是一把双刃剑。它既有潜力提升内容审核的效率和规模,但也可能带来准确性、偏见和操纵等风险。X 平台需要 тщательно 评估这些风险,并采取有效的保障措施,才能确保 AI 真正能够帮助改善平台的内容质量,而不是适得其反。
最终,人机协作才是王道。AI 可以作为辅助工具,帮助人类更快地识别和纠正错误信息,但人类的洞察力、判断力和专业知识仍然是不可或缺的。只有将 AI 的强大能力与人类的智慧相结合,才能构建一个更值得信赖的网络平台。