AI视频成歧视温床?TikTok监管失守引深思

1

引言

2025年5月,谷歌Veo 3视频生成器的问世,在AI视频质量领域实现了“质的飞跃”。然而,这项技术在带来创新可能性的同时,也被别有用心者利用,制造并传播有害内容。本文将深入探讨在TikTok平台上,由Veo 3生成的种族歧视AI视频泛滥的现象,分析其背后的原因,并探讨可能的解决方案。

A TikTok app icon on a phone screen.

事件概述

近期,多个TikTok账号开始发布由AI生成的,带有种族主义和反犹太主义色彩的视频。这些视频主要针对黑人群体,内容包括将他们描绘成罪犯、缺席的父母,或是对西瓜情有独钟的猴子。此外,移民和犹太人也成为了攻击的目标。这些时长不超过八秒的视频带有“Veo”水印,证实它们出自谷歌的AI模型。

这些视频利用了人们对社会议题的敏感性,通过刻板印象和煽动性言论,迅速吸引了大量关注。这种现象的出现,不仅对受害者造成了伤害,也对社会价值观产生了负面影响。

平台监管的困境

尽管TikTok的社区准则明确禁止仇恨言论和行为,但这些歧视性AI视频却得以 unchecked 传播。TikTok声称,他们同时采用技术手段和人工审核来识别违规内容。然而,面对海量的视频上传,平台显然难以做到 timely 监管。

Hateful AI videos generated by Veo 3 spreading on TikTok.

TikTok的应对措施

据TikTok发言人透露,在相关报告发布前,平台已经封禁了报告中提及的大部分账号,剩余账号也已陆续被移除。这一举措表明,TikTok正在积极应对这一问题。然而,亡羊补牢之举,能否真正遏制仇恨内容的传播,仍有待观察。

谷歌的责任

谷歌的Prohibited Use Policy同样禁止利用其服务宣扬仇恨、骚扰和恐吓。理想情况下,Veo 3应该拒绝创建此类视频。然而,由于提示语的模糊性,以及AI难以理解种族主义隐喻的特点,使得不法分子得以绕过规则。

AI监管的挑战

AI技术在快速发展的同时,也带来了一系列伦理和社会问题。如何平衡技术创新与社会责任,成为了一个亟待解决的难题。

技术难题

AI的内容审核依赖于关键词识别和模式匹配。然而,种族主义者往往会采用隐晦的表达方式,例如使用暗语、符号或幽默来传递仇恨信息。这使得AI难以准确识别和过滤这些内容。

政策难题

即使AI能够识别仇恨言论,平台也需要制定明确的政策,来决定如何处理这些内容。然而,在言论自由和内容审核之间,存在着难以把握的平衡。

案例分析

X平台的困境

X(前身为Twitter)在内容审核方面的宽松政策,导致了仇恨AI内容的泛滥。这表明,缺乏有效的监管,会导致仇恨言论 unchecked 传播。

YouTube Shorts的潜在风险

谷歌计划将Veo 3整合到YouTube Shorts中,这可能会使类似内容更容易在YouTube上传播。这提醒我们,在推广AI技术的同时,必须加强监管,防范潜在风险。

解决方案探讨

加强技术监管

  1. 提升AI的理解能力:通过训练AI识别种族主义隐喻,提高其内容审核的准确性。
  2. 引入多模态审核:结合文本、图像和音频信息,更全面地评估内容是否违规。
  3. 建立用户举报机制:鼓励用户积极举报违规内容,形成社会监督的力量。

完善平台政策

  1. 制定明确的审核标准:明确界定仇恨言论的范围,为内容审核提供清晰的指导。
  2. 加强人工审核:对于AI难以判断的内容,引入人工审核,确保审核的准确性。
  3. 建立黑名单制度:对于屡次发布违规内容的账号,采取封禁措施。

提升用户素养

  1. 加强媒体素养教育:提高用户对虚假信息的辨别能力,防止被仇恨言论误导。
  2. 倡导理性讨论:鼓励用户以理性和尊重的态度参与讨论,营造健康的社区氛围。

结论

AI视频生成技术在为我们带来便利的同时,也被不法分子利用,成为了传播仇恨言论的工具。面对这一挑战,我们需要加强技术监管,完善平台政策,并提升用户素养,共同构建一个健康、和谐的网络环境。

Photo of Ryan Whitwam