AI生成内容泛滥:TikTok种族歧视视频敲响警钟
2025年7月3日,谷歌的Veo 3视频生成器在5月份发布后,AI视频质量实现了令人不安的飞跃。虽然我们看到的许多病毒式AI视频都是无害的娱乐,但该模型的完美像素输出也可用于恶意目的。在TikTok上,用户已经注意到大量由谷歌Veo 3生成的种族主义AI视频。
根据MediaMatters的报告,最近几周,许多TikTok帐户开始发布AI生成的视频,这些视频使用了种族主义和反犹太主义的比喻。大多数AI恶意中伤针对的是黑人,将他们描绘成犯罪中的“常见嫌疑人”、缺席的父母以及喜欢西瓜的猴子。内容也针对移民和犹太人。这些视频最长为8秒,并带有“Veo”水印,确认它们来自谷歌领先的AI模型。
以下汇编视频包含自Veo 3发布以来从TikTok提取的示例,但请注意,它包含种族主义和反犹太主义内容。其中一些视频令人震惊,这可能是重点——没有什么比愤怒和戏剧更能推动社交媒体上的参与度了。MediaMatters报告称,原始帖子有许多评论呼应了视频中使用的刻板印象。
谷歌在宣布新的AI模型时强调了安全性——我们都见过AI拒绝完成违反其护栏的任务。当你有真正无害的意图时,系统会抛出误报并阻止你的输出,这从来都不是一件有趣的事。谷歌之前在很大程度上取得了正确的平衡,但Veo 3似乎更顺从。我们用Veo 3测试了一些简单的提示,发现很容易重现这些视频的元素。
清晰但未执行的政策
TikTok的服务条款禁止此类内容。“我们不允许任何仇恨言论、仇恨行为或宣扬仇恨意识形态。这包括攻击受保护群体的明确或隐含内容,”社区准则写道。尽管全面禁止种族主义漫画,但仇恨的Veo 3视频似乎正在不受控制地传播。
TikTok指出,它使用技术和人工审核员来识别违反规则的内容。然而,上传的视频数量使得及时审核变得困难。虽然种族主义视频获得了大量观看次数,但TikTok发言人告诉Ars,MediaMatters报告中引用的超过一半的帐户在报告发布之前因违反政策而被禁止,其余帐户现在已被删除。
至于谷歌,它有一项全面的禁止使用政策,禁止使用其服务来宣传仇恨言论、骚扰、欺凌、恐吓和虐待。MediaMatters发现的视频似乎都属于这些类别中的一个或多个。在一个完美的世界中,Veo 3会拒绝创建这些视频,但提示中的模糊性以及AI无法理解种族主义比喻的微妙之处(即,在某些视频中使用猴子代替人类)使得绕过规则变得容易。
TikTok是世界领先的社交视频巨头,是这些视频传播的自然场所。但这并非TikTok独有。X(前身为Twitter)因非常有限的审核而声名鹊起,导致仇恨AI内容激增。这个问题可能很快会变得更糟。谷歌计划将Veo 3集成到YouTube Shorts中,这可能会使类似内容在YouTube上传播变得更容易。
TikTok和谷歌对这些内容有明确的禁令,这应该可以防止它在社交媒体上被观看数百万次。然而,这些政策的执行却很差。TikTok似乎无法跟上视频上传的洪流,而谷歌的护栏似乎不足以阻止此类内容的创建。我们已联系谷歌,询问Veo 3的安全功能,但尚未收到回复。
长期以来,生成式AI一直存在,人们一直用它来创建煽动性和种族主义内容。谷歌和其他公司总是谈论防止滥用的护栏,但它们无法捕捉到一切。Veo 3的真实感使其对那些想要传播仇恨刻板印象的人特别有吸引力。也许世界上所有的护栏都无法阻止这一点。
AI视频生成平台的监管挑战与应对
引言:AI技术的双刃剑
人工智能(AI)技术在视频生成领域的快速发展,为内容创作带来了前所未有的便利性和创新性。诸如谷歌的Veo 3等AI模型,能够以惊人的真实度和效率生成视频内容,极大地拓展了视频创作的可能性。然而,这项技术也带来了一系列挑战,尤其是在内容监管方面。本文旨在探讨AI视频生成平台面临的监管挑战,并分析可能的应对策略。
AI视频生成平台的监管挑战
- 内容审核的复杂性:AI生成视频的逼真度使得区分真实内容和虚假内容变得越来越困难。传统的基于关键词和图像识别的内容审核方法在面对AI生成的复杂内容时显得力不从心。恶意用户可以利用AI生成包含仇恨言论、虚假信息或煽动性内容的视频,并在社交媒体平台上传播,从而逃避内容审核机制。
- 道德和法律边界的模糊:AI生成视频可能涉及版权、隐私和诽谤等法律问题。例如,AI可以模仿特定人物的声音和形象,生成未经授权的内容,侵犯个人的隐私权和肖像权。此外,AI生成视频还可能被用于传播虚假信息,损害个人或组织的声誉。
- 技术滥用的风险:AI视频生成技术可能被用于制作深度伪造(Deepfake)视频,这些视频可以用于政治宣传、欺诈和恶意诽谤等目的。由于深度伪造视频的逼真度极高,普通用户很难辨别真伪,从而可能导致严重的社会危害。
- 监管滞后性:AI技术的发展速度远远超过了监管政策的制定速度。现有的法律法规往往无法有效应对AI生成内容带来的新问题。监管机构需要不断更新和完善监管框架,以适应AI技术的发展。
应对AI视频生成平台的监管挑战
技术手段的创新:
- 水印技术:在AI生成视频中嵌入数字水印,以便追溯视频的来源和生成方式。水印可以包含生成模型的名称、生成时间戳等信息,从而提高视频的可追溯性。
- 内容溯源技术:开发内容溯源技术,用于识别AI生成视频中的恶意内容。该技术可以通过分析视频的像素、音频和元数据等信息,判断视频是否包含虚假信息或仇恨言论。
- AI检测技术:利用AI技术检测AI生成的内容。通过训练AI模型识别AI生成视频的特征,可以有效地识别和过滤恶意内容。
平台责任的强化:
- 内容审核义务:社交媒体平台应承担起内容审核的义务,建立完善的内容审核机制,及时发现和删除违规AI生成视频。平台可以采用人工审核和AI审核相结合的方式,提高审核效率和准确性。
- 用户举报机制:建立健全的用户举报机制,鼓励用户积极举报违规内容。平台应及时处理用户举报,并对违规用户采取相应的处罚措施。
- 透明度要求:平台应公开其内容审核标准和流程,接受社会监督。平台还应公开AI生成视频的来源和生成方式,提高用户对内容的辨识能力。
法律法规的完善:
- 明确法律责任:制定明确的法律法规,明确AI生成视频的法律责任。对于利用AI生成视频进行违法犯罪活动的,应依法追究其法律责任。
- 保护个人权益:加强对个人隐私权和肖像权的保护,禁止未经授权使用个人信息生成视频。对于侵犯个人权益的AI生成视频,应及时删除并追究侵权责任。
- 规范AI技术的使用:制定AI技术使用的规范,防止AI技术被滥用于制作虚假信息和仇恨言论。
跨界合作的加强:
- 政府、企业和学界的合作:政府、企业和学界应加强合作,共同应对AI视频生成带来的挑战。政府可以制定相关政策,企业可以开发技术解决方案,学界可以进行理论研究。
- 国际合作:AI技术的发展具有全球性,各国应加强国际合作,共同应对AI视频生成带来的挑战。可以通过制定国际标准、分享最佳实践等方式,提高全球AI治理水平。
结论:构建负责任的AI生态系统
AI视频生成技术是一项强大的工具,可以为内容创作带来巨大的价值。然而,我们也必须清醒地认识到,这项技术也存在被滥用的风险。为了充分发挥AI视频生成的潜力,我们需要构建一个负责任的AI生态系统,通过技术创新、平台责任、法律法规和跨界合作等多种手段,共同应对AI视频生成带来的挑战。只有这样,我们才能确保AI技术的发展能够真正服务于人类,而不是成为社会问题的根源。
通过建立健全的监管框架,加强技术创新和跨界合作,我们可以有效地应对AI视频生成带来的挑战,确保AI技术的发展能够真正服务于社会,而不是被用于传播仇恨和虚假信息。在这个过程中,政府、企业、学界和个人都需要承担起自己的责任,共同构建一个负责任的AI生态系统。