YouTube秘密测试AI视频增强引发争议:创作者权益与内容真实性边界何在?

2

近年来,人工智能技术的飞速发展不仅渗透到各个行业,也深刻影响着内容创作领域。然而,当这种技术以不透明的方式介入时,便会引发一系列关于真实性与创作者权益的深刻讨论。近期,全球最大的视频分享平台YouTube就卷入了一场关于AI视频增强的争议漩涡。

数月以来,一些YouTube创作者陆续发现他们的上传视频出现了一些“异样”,画面表现出过度平滑、边缘失真或异常锐化等特征,让人不禁联想到AI处理的痕迹。这种现象在YouTube Shorts中尤为明显,引发了用户和创作者的强烈质疑。例如,如果智能手机在拍照后进行过度的锐化处理,照片局部可能会呈现出类似油画的质感,而YouTube视频中出现的正是类似的效果。

在社区广泛讨论和一位知名音乐频道深入分析后,Google终于承认,他们一直在悄悄测试一项利用AI技术对视频进行“增强”的功能。YouTube编辑主管Rene Ritchie在社交媒体上澄清,此功能并非生成式AI(GenAI),而是基于“传统机器学习”算法,旨在减少视频模糊和噪点,并提升图像清晰度。尽管Google试图区分其AI的性质,但这仍然是一种在未经创作者同意下,由AI主导的视频修改行为,对于内容真实性的影响显而易见。

A YouTube logo displayed on a mobile phone screen

一位名叫Rhett Shull的YouTuber在与同行交流后,对视频的异常变化进行了深入调查。他坚信YouTube在未经通知的情况下应用了AI视频处理技术,并将其描述为“视频升格”(upscaling),尽管Google的Ritchie否认这属于传统意义上的升格技术。无论如何定义,核心问题在于平台在未告知创作者的情况下,擅自对他们的原创内容进行修改。

Google最终承认了这项测试的存在,但对于该功能是否会成为YouTube上传流程的正式组成部分,以及创作者是否有权选择退出AI增强,目前仍未给出明确答复。这种不透明的操作模式,无疑加剧了创作者对平台信任度的担忧。

创作者是否拥有知情权?

对于普通观众而言,或许一部分人会喜欢经过Google AI增强的视频效果。然而,对于那些致力于产出高质量内容的创作者,尤其是对视频像素和细节有着严格要求的专业人士来说,Google此举无疑是令人不安的。除了对修改后的视频效果是否“更好”的质疑外,更核心的问题在于Google在未经告知的情况下进行这些改变。

Google方面表示,他们希望收集观众和创作者的反馈,以便“迭代和改进”这些增强功能。然而,在收集反馈之前,更应做到的是公开透明。平台在进行任何可能影响创作者内容的实验时,都应提前告知并提供选择权。创作者投入大量时间和精力制作的视频,承载着他们的创意和专业表达,任何未经许可的修改都可能被视为侵犯其作品完整性的行为。

值得注意的是,Google在发布Pixel 10手机时,曾强调其改进的图像处理流程可以自动对照片进行AI增强。当时,Google认为对这种AI编辑的透明度至关重要,因此Pixel 10集成了C2PA标记功能。这意味着用户拍摄的照片如果经过AI编辑,将自动被打上标签,确保每个人都知道这些照片可能并非现实的精确再现。然而,对于YouTube视频,Google似乎表现出不同的态度,这让其在不同产品线上的透明度标准显得自相矛盾。

当前,用户对AI生成内容的接受度并不统一,甚至存在一定程度的反弹。如果创作者的作品被发现使用了AI技术,互联网上往往会出现质疑和负面评论。通过秘密应用AI编辑(无论Google如何称呼它),YouTube在无意中将创作者置于可能面临不应有的审视和声誉损失的风险之中。随着Google计划在YouTube中广泛引入Veo视频生成功能,这种对内容真实性与平台透明度的讨论将变得更为迫切和重要。

A YouTube logo displayed on a mobile phone screen

在数字内容日益丰富且AI技术深度融合的时代,我们必须重新思考“真实”的定义。当平台能够未经告知地修改用户上传的原创内容时,内容的原始性和权威性将受到挑战。平台方有责任确保技术应用的透明性,尊重创作者的知情权和作品完整性。而创作者也需要积极参与到关于AI伦理和平台政策的讨论中,共同构建一个更加公平、透明和信任的数字内容生态系统。未来,任何AI技术的应用,都应在明确的规则和充分的沟通下进行,以避免类似争议的再次发生,并真正赋能创作者,而非削弱其控制权。