OpenAI最新推出的Sora 2视频生成工具正在引发一场关于数字伦理与法律边界的激烈讨论。尽管该公司声称已采取措施"禁止公众人物形象",但实际应用中,这一政策存在一个显著漏洞——允许用户轻松创建已故名人形象的AI视频。从迈克尔·杰克逊的厨房喜剧到图帕克与马尔科姆·X的对话,社交媒体上充斥着此类令人不安的内容。这不仅引发家属强烈反对,更触及数字遗产、肖像权与AI伦理的深层问题。
Sora 2的政策漏洞:生者保护,逝者开放
当OpenAI于上周发布Sora 2视频生成器时,公司在博客中宣称已采取措施"默认禁止公众人物形象"。然而,创作者和观众很快发现,这一禁令存在一个巨大的漏洞,允许那些恰好已故的公众人物形象出现在视频中。
社交媒体上,已故名人被插入Sora 2视频创作的例子不难找到:图帕克·沙库与马尔科姆·X对话、李小龙进行"龙能量"DJ表演、迈克尔·杰克逊在厨房做单口喜剧、史蒂芬·霍金的轮椅在巨型滑板上翻倒、罗杰斯先生在《蠢蛋秀》中客串、科特·柯本偷肯德基鸡手指、马丁·路德·金在重要演讲中结巴。这个名单还在不断增长。
迈克尔·杰克逊从未做过基于香蕉的喜剧表演,但Sora 2正在"修复"这一点。
OpenAI在每个生成的视频上放置了移动的Sora水印,这限制了观众被真实人物的假画面欺骗的风险。然而,看到这些已故名人被AI工具当作道具使用,显然会让他们的在世亲属和粉丝感到不安。
"请不要再给我发关于父亲的AI视频,"罗宾·威廉姆斯的女儿泽尔达·威廉姆斯周一在Instagram故事中说道(已被删除但已被归档)。"不要再相信我想看它或我会理解,我不会也不会...这很愚蠢,浪费时间和精力,相信我,这不是他想要的。"
同意的缺失:逝者无法掌控自己的形象
泽尔达提到的她已故父亲意愿的问题在这里很重要。OpenAI指出,包括公众人物在内的在世用户可以通过用智能手机扫描自己的面部,选择加入Sora 2的"客串"功能,"将自己直接放入任何Sora场景中,具有惊人的保真度"。OpenAI承诺,客串用户"完全控制自己的形象",该功能旨在"确保您的音频和图像形象在您的同意下使用"。客串用户还可以随时撤销对其扫描图像的访问权限,并对使用该扫描创建的其他视频进行内容控制。
但已故的公众人物显然无法同意使用Sora 2的客串功能,也无法对其形象行使这种"端到端"控制。而OpenAI似乎对此没有问题。"我们没有额外的评论要补充,但我们确实允许生成历史人物的形象,"OpenAI发言人最近告诉PCMag。
法律框架:各州法律参差不齐
使用已故公众人物的数字复制品并非一个全新问题——早在90年代,我们曾共同面对约翰·列侬与阿甘对话和弗雷德·阿斯泰尔与戴特维尔真空吸尘器共舞的情节。然而,当时那种类型的镜头需要繁琐的数字编辑,技术只有大型视频制作公司才能轻松获取。现在,任何Sora 2用户都可以在几分钟内、花费几美元生成更具说服力的已故公众人物视频。
在美国,已故公众人物的形象权由至少24个州的各种法律管理。加州的法律可追溯到1985年,禁止未经授权的死后使用公众人物形象"用于广告或销售、或推销购买产品、商品、货物或服务"的目的。但2001年加州最高法院的一项裁决明确允许根据第一修正案将这些形象用于"转换性"目的。
纽约州的法律于2022年签署,包含特别条款,禁止未经授权使用"如此逼真以至于合理观察者会相信这是所描绘个人的表演而非其他任何个人"的"数字复制品",并以"可能欺骗公众认为已获得该人或他人授权"的方式使用。但视频制作者可以通过"明显的免责声明"明确指出该使用未经授权来规避这一禁令。
行业应对:演员协会的先行一步
对AI复制品的控制是2023年美国演员工会-美国电视和广播艺人联合会罢工的主要焦点, resulted in a contract that gave members full control over the use of digital replicas in future unionized projects. 泽尔达·威廉姆斯在那次罢工期间公开写到了当时重新创建她父亲声音的"令人不安"的努力。"这些复制品,在最好的情况下,是伟大人物的拙劣模仿,但在最坏的情况下,是一个可怕的弗兰肯斯坦式怪物,由这个行业最糟糕的部分拼凑而成,而不是它应该代表的东西,"她写道。
OpenAI的调整与未来挑战
OpenAI已经被迫改变Sora处理虚构受版权保护作品的方式。CEO萨姆·奥特曼本周末写道,版权所有者现在必须选择允许他们的角色出现在Sora 2视频中(而不是在服务启动时选择退出),并将分享其角色任何Sora视频的部分收入。奥特曼还承诺"将有许多更多[变化]到来",并期望"我们会有非常高的变化率...我们会做出一些好的决定和一些失误,但我们会接受反馈并尝试很快修复这些失误。"
去年,一对播客主持人在创建了一个使用乔治·卡林声音复制品(但实际上是由人类撰写的)的"AI"乔治·卡林喜剧特别节目后被告上法庭。此外,OpenAI之前因在ChatGPT-4o的语音模式中模仿斯嘉丽·约翰逊的声乐表演而面临法律行动的威胁。
马丁·路德·金在演讲中忘记了台词,这是AI生成的一个例子。
技术与伦理的平衡点
Sora 2引发的争议反映了AI技术发展中一个持续的挑战:如何在技术创新与伦理责任之间找到平衡点。一方面,AI视频生成技术为创作者提供了前所未有的表达自由和创意可能性;另一方面,它也带来了对个人隐私、形象权和数字遗产的潜在侵犯。
OpenAI的案例表明,即使是科技巨头也难以预见其产品在现实世界中的所有应用场景。最初的政策设计可能出于善意,但实施过程中却出现了明显的漏洞。这提醒我们,AI治理需要持续迭代,不能仅仅依靠初始的政策声明。
数字遗产的新定义
Sora 2引发的争议也迫使我们重新思考"数字遗产"的概念。传统上,数字遗产指的是个人在互联网上留下的数字足迹,如社交媒体账户、电子邮件和文件。但随着AI技术的发展,数字遗产的概念正在扩展,包括个人的形象、声音和人格特征的数字复制品。
这种扩展带来了新的问题:个人对其数字遗产拥有何种权利?这些权利是否应该延续到他们去世之后?如果应该,这些权利应该如何定义和执行?这些问题没有简单的答案,但随着AI技术的普及,它们变得越来越紧迫。
法律与技术的赛跑
目前,法律体系正在努力跟上AI技术的发展速度。如前所述,美国各州对已故公众人物形象权的保护参差不齐,且存在明显的漏洞。随着AI生成技术的普及,这种法律保护与技术创新之间的差距可能会扩大。
此外,全球范围内的法律框架也存在不一致。一些国家可能对AI生成内容的监管更为严格,而另一些国家则相对宽松。这种不一致性可能导致"监管套利",即创作者将内容转移到监管较宽松的地区,从而规避严格的监管要求。
行业自律与多方参与
面对法律监管的滞后,行业自律和多方参与变得尤为重要。科技公司如OpenAI需要建立更完善的内部审核机制,主动识别和应对潜在的风险。同时,内容创作者、名人及其家属、法律专家和伦理学家都应该参与到AI治理的讨论中,共同制定既鼓励创新又保护各方利益的规则。
例如,可以考虑建立"数字遗产登记处",允许个人在生前指定其死后形象的用途和限制。或者,开发更先进的检测技术,帮助用户识别AI生成的内容,减少混淆和误用的可能性。
技术解决方案的可能性
从技术角度看,也有多种可能的解决方案可以帮助缓解当前的问题。一种方法是开发更精确的内容识别系统,能够自动检测并标记AI生成的内容,特别是涉及已故名人的内容。另一种方法是改进水印技术,使其更难被移除或篡改,从而确保内容的来源和性质得到明确标识。 此外,还可以考虑开发"伦理过滤器",允许用户根据自己的价值观选择是否查看或创建某些类型的AI内容。这种方法尊重用户的自主权,同时为那些希望避免特定内容的人提供了选择。
未来展望:负责任的AI创新
Sora 2引发的争议不应被视为AI技术的失败,而应被视为一个学习机会。它提醒我们,技术创新必须伴随着伦理考量和责任意识。未来的AI发展应该更加注重负责任的创新,即在追求技术进步的同时,也要考虑对社会、个人和伦理的影响。
OpenAI已经表示将根据反馈进行调整,这表明科技公司有能力也有意愿适应不断变化的挑战。然而,这种适应必须是主动的,而不是被动的。公司应该预见潜在的风险,并在问题扩大之前采取措施解决它们。
结论
Sora 2对已故名人形象的生成能力引发了关于AI伦理、法律保护和数字遗产的重要讨论。这一案例揭示了技术创新与伦理责任之间的复杂关系,以及法律体系在应对新兴技术时面临的挑战。
未来,我们需要多方共同努力,包括科技公司、立法者、法律专家、伦理学家和公众,共同制定既能促进AI创新又能保护个人权益的框架。只有这样,我们才能确保AI技术的发展方向符合社会的整体利益,尊重每个人的尊严和权利。
在数字时代,我们的身份和遗产不再局限于物理存在,而是延伸到数字领域。随着AI技术的发展,我们需要重新思考如何保护这些数字形式的身份和遗产,确保它们得到尊重和适当的保护。这不仅是对已故名人的尊重,也是对我们所有人的尊重。