在过去的几年里,AI内容如雨后春笋般涌现于互联网,那些早期出现的畸形手指的AI生成内容已经演变为难以与现实区分的合成图像和视频。作为这一问题的部分制造者,谷歌有责任在YouTube上控制AI视频的传播。为此,该公司已经开始为其创作者推出承诺已久的相似度检测系统。
AI内容的兴起与挑战
谷歌强大且免费提供的AI模型助长了AI内容的兴起,其中一些内容旨在传播虚假信息和骚扰个人。创作者和网红担心,大量展示他们从未说过或做过事情的AI视频可能会损害他们的品牌形象——甚至立法者也在对此表示担忧。谷歌已对AI内容的价值下了很大赌注,因此像许多人希望的那样完全禁止AI内容在YouTube上出现是根本不可能的。

今年早些时候,YouTube承诺将推出能够标记平台上窃取人脸的AI内容的工具。现在,这种相似度检测工具已从最初的小规模测试组扩展到更广泛的范围。YouTube表示,第一批符合条件的创作者已收到通知,他们可以使用相似度检测功能,但感兴趣的用户需要向谷歌提供更多个人信息,才能获得对AI虚假内容的保护。
相似度检测的工作原理
目前,相似度检测仍处于有限测试的测试阶段,因此并非所有创作者都会在YouTube工作室中看到这一选项。当它出现时,将被整合到现有的"内容检测"菜单中。在YouTube的演示视频中,设置流程似乎假设该频道只有一位主持人需要保护其形象。该人员必须验证其身份,这需要提供政府身份证的照片和面部视频。尽管人们已经上传了包含极易被窃取的面孔的视频,但YouTube为何还需要这些数据尚不清楚,但规则就是规则。
无保证的保护
注册后,YouTube将标记其他频道中出现的似乎包含用户面部的视频。YouTube的算法无法确定哪些是AI视频,哪些不是。因此,一些面部匹配结果可能是根据合理使用指南使用短片段的频道产生的误报。
如果创作者确实发现了AI虚假内容,他们可以在几分钟内添加一些细节并提交报告。如果视频包含从创作者频道复制但不遵守合理使用指南的内容,YouTube建议同时提交版权删除请求。然而,仅仅因为某人的形象出现在AI视频中,并不一定意味着YouTube会将其删除。
YouTube已发布了一份清单,说明其审查人员在决定是否批准删除请求时会考虑哪些因素。例如,标记为AI的模仿内容或风格不现实的视频可能未达到删除标准。另一方面,可以肯定的是,展示某人代言产品或从事非法活动的逼真AI视频将违反规定并被YouTube删除。
AI视频技术的快速发展
虽然这对创作者来说可能是一个新兴问题,但YouTube上的AI内容可能很快会激增。谷歌最近发布了其新的Veo 3.1视频模型,该模型支持人像和横向AI视频。该公司之前承诺将Veo与YouTube集成,这将使人们更容易大量生产可能包含真实人物描绘的AI垃圾内容。
谷歌的竞争对手OpenAI通过其Sora AI视频应用及其支持的Sora 2模型取得了成功(至少在受欢迎程度方面)。这可能会推动谷歌加速其在YouTube上的AI计划,但正如我们从Sora看到的,人们喜欢让公众人物做奇怪的事情。受欢迎的创作者可能需要开始像提交DMCA删除通知一样定期提交AI形象投诉。
平台责任与创作者权益的平衡
YouTube推出相似度检测系统的举措,反映了大型科技公司在AI时代面临的共同挑战:如何在推动技术创新的同时保护用户权益。这一系统虽然不完美,但代表了平台方对AI内容潜在风险的积极应对。
随着AI技术的不断进步,我们可以预见,未来的相似度检测系统将更加精准和高效。然而,技术永远不是万能的,它需要与完善的法律法规、行业自律和用户教育相结合,才能有效应对AI带来的挑战。
对于创作者而言,了解并善用这些工具至关重要。同时,他们也应意识到,在数字时代,保护自己的数字形象已成为一项必要技能。这包括定期监控自己的在线形象,了解平台政策,并在必要时采取法律行动。
对于普通用户而言,提高对AI生成内容的辨别能力同样重要。只有当大众能够识别并抵制虚假信息时,才能从根本上减少AI滥用带来的危害。
未来展望
随着AI技术的不断进步,我们可以预见,未来的相似度检测系统将更加精准和高效。然而,技术永远不是万能的,它需要与完善的法律法规、行业自律和用户教育相结合,才能有效应对AI带来的挑战。
YouTube的相似度检测系统只是这场数字身份保卫战的第一步。随着技术的不断发展,我们将看到更多创新解决方案的出现,以保护个人在数字世界的形象和权益。这不仅关乎内容创作者的权益,更涉及到数字时代个人身份安全的深层次问题。









