引言:技术进步与伦理挑战
人工智能技术的飞速发展正在重塑内容创作领域,而OpenAI最新推出的Sora 2视频生成系统更是将这一变革推向了新的高度。然而,伴随着技术进步而来的,是一系列复杂的伦理和法律问题。特别是当AI技术能够轻易重现已故名人形象时,关于肖像权、隐私权和伦理边界的讨论变得尤为迫切。
OpenAI在Sora 2发布时宣称已采取措施"默认阻止公众人物的描绘",但现实情况显示,这一保护措施存在明显漏洞——已故"历史人物"被排除在外。这一政策差异引发了广泛争议,并促使我们思考:在数字时代,逝者的形象和遗产应如何得到保护?
现象扫描:已故名人的AI复现热潮
社交媒体上充斥着各种使用Sora 2生成的已故名人视频,这些内容不仅数量庞大,而且创意大胆,往往将历史人物置于完全不符合其形象或时代背景的情境中。
- 音乐界的重生:图帕克·沙库尔与马尔科姆·X进行历史性对话;布鲁斯·李以"龙能量"为主题打碟DJ表演;迈克尔·杰克逊在厨房表演脱口秀,手持香蕉作为道具。
- 科学界的颠覆:史蒂芬·霍金的轮椅在巨型滑板上失控翻滚;阿尔伯特·因斯坦在说唱视频中解释相对论。
- 电视与电影界的跨界:罗杰斯先生在《蠢蛋搞怪秀》中客串;蒙蒂·派森喜剧团成员在现代脱口秀节目中表演。
这些内容虽然带有明显的AI生成痕迹,OpenAI在每个视频中都添加了移动水印,但它们仍然能够引起观众的强烈反应,无论是出于娱乐、震惊还是不适。
伦理争议:逝者无法同意的数字复现
名人家属的强烈反对
已故名人亲属对这些AI生成内容的反应普遍是负面的。最引人注目的案例是罗宾·威廉姆斯的女儿泽尔达·威廉姆斯的公开表态。
"请不要再给我发送关于我父亲的AI视频,"泽尔达在Instagram故事中写道(现已删除),"不要以为我想看或会理解这些内容,我不会也不会理解...这很愚蠢,浪费时间和精力,相信我,这不是他想要的。"
泽达拉的发言强调了关键问题:已故名人无法对自身形象的数字复现表示同意或拒绝。这与OpenAI为活着公众人物设计的"客串"功能形成鲜明对比。
技术提供方的立场
OpenAI对此问题的立场相对明确。公司发言人告诉PCMag:"我们没有额外评论,但我们确实允许生成历史人物的内容。"
这一立场基于OpenAI对"历史人物"与"公众人物"的区分。公司为活着的人物提供了"客串"功能,允许他们通过智能手机扫描面部,"以惊人的保真度将自己直接放入任何Sora场景中"。公司承诺,使用该功能的用户"对自己的肖像拥有端到端控制权",并且可以随时撤销对其扫描图像的访问权限。
然而,这种控制机制对于已故名人而言显然不适用,他们既无法选择参与,也无法撤回同意。
法律框架:死后肖像权的复杂图景
美国各州法律的差异
在美国,已故公众人物的公开权(right of publicity)受到至少24个州的不同法律管辖。这些法律在保护范围、限制条件和执行力度上存在显著差异。
- 加州法律:可追溯至1985年的加州 statute禁止未经授权的死后肖像使用,"用于广告或销售,或征求购买产品、商品、货物或服务的目的"。然而,2001年加州最高法院的一项裁决明确允许将此类肖像用于"转换性"目的,受第一修正案保护。
- 纽约法律:2022年签署的纽约法律包含特定条款,禁止使用"如此逼真以至于合理观察者会相信是被描绘个人的表演而非他人"的"数字副本",并且使用方式"可能欺骗公众认为得到了该个人的授权"。但视频制作者可以通过添加"显式免责声明"来规避这一禁令,明确指出使用未经授权。
法律实践的挑战
这些法律在应对AI生成内容时面临新的挑战。传统上,创建已故名人的逼真数字复现需要复杂的数字编辑技术,只有大型视频制作公司才能轻松实现。而现在,任何Sora 2用户都能在几分钟内、花费几美元就生成更加逼真的已故公众人物视频。
法律专家指出,现有法律框架主要针对商业用途设计,对于非商业性质的AI生成内容,保护力度有限。此外,"转换性使用"的例外条款为创意表达留下了广阔空间,使得许多AI生成内容可能免于法律追究。
行业响应:工会与企业的博弈
SAG-AFTRA罢工的影响
表演者对AI复现的控制权是2023年SAG-AFTRA罢工的核心议题之一。最终达成的合同给予工会成员对其数字复现的完全控制权,可在未来的工会项目中使用。
泽尔达·威廉姆斯在罢工期间曾公开表达对重新创建父亲声音的"令人不安"的努力的担忧。她写道:"这些复现,在最乐观的情况下,也只是伟大人物的拙劣复制品,但在最糟糕的情况下,是一种可怕的弗兰肯斯坦式怪物,由这个行业最糟糕的部分拼凑而成,而不是它应该代表的东西。"
OpenAI的政策调整
面对法律和伦理压力,OpenAI已经开始调整其政策。CEO萨姆·阿尔特曼最近表示,版权所有者现在必须选择加入(opt in)才能允许其角色出现在Sora 2视频中(而不是服务推出时的选择退出opt out),并将分享其角色在任何Sora视频中的部分收入。
阿尔特曼还承诺"未来会有更多变化",并表示"期待我们会有非常高的变化率...我们会做出一些好的决定和一些失误,但我们会接受反馈并尝试非常迅速地纠正失误。"
历史视角:技术演进与伦理边界
已故名人数字复现的问题并非全新。早在90年代,我们就曾集体面对约翰·列侬与阿甘对话、弗雷德·阿斯泰尔与戴维特真空吸尘器共舞等合成画面。然而,当时这类画面需要费时费力的数字编辑,技术仅对主要视频制作公司容易获得。
技术民主化使得现在任何人都能轻松创建类似内容,这大大降低了伦理门槛,同时放大了潜在危害。当创建逼真数字复现的门槛从专业制作团队降低到普通用户时,我们需要重新思考伦理规范和法律框架。
案例研究:法律纠纷的前奏
近年来,多起与AI名人复现相关的法律纠纷预示着未来可能的诉讼浪潮。
- 乔治·卡林案例:去年,一对播客主持人在创建使用卡林声音复现的"AI"喜剧节目后被起诉。尽管内容实际上是由人类撰写的,但卡林的继承人仍提起了诉讼。
- 斯嘉丽·约翰逊案例:OpenAI此前因在ChatGPT-4o的语音模式中模仿斯嘉丽·约翰逊的声乐表演而面临法律行动威胁。
这些案例表明,随着AI技术的普及,名人及其继承人越来越积极地保护自身权益,可能预示着针对Sora 2等平台的法律行动即将到来。
未来展望:平衡创新与尊重
技术解决方案的可能性
面对这些挑战,技术界正在探索多种解决方案:
- 更严格的身份验证:要求用户证明他们有权使用特定人物的形象。
- 伦理设计原则:将伦理考量纳入AI系统的早期设计阶段。
- 内容标记系统:开发更先进的标记技术,明确区分真实内容和AI生成内容。
- 选择性过滤:允许已故名人亲属选择是否将其形象纳入AI训练数据或生成选项。
社会共识的构建
技术解决方案之外,构建社会共识同样重要。这需要多方利益相关者的参与:
- 技术开发者:制定负责任的AI使用准则,主动识别和解决潜在问题。
- 法律制定者:更新现有法律框架,明确AI生成内容的法律地位和责任归属。
- 名人遗产管理者:积极参与政策讨论,代表已故名人表达立场。
- 公众用户:提高对AI生成内容潜在影响的认知,负责任地使用这些技术。
结论:在创新与尊重之间寻找平衡
Sora 2对已故名人形象的生成能力揭示了AI技术发展中的一个核心矛盾:如何在推动创新的同时尊重个体权利和伦理边界。
已故名人无法为自己发声,无法同意或拒绝自己的数字复现,这使得保护他们的责任落在了技术开发者、法律制定者和使用者身上。随着AI技术的不断进步,我们需要建立更完善的伦理框架和法律规范,确保技术进步不以牺牲人类尊严和权利为代价。
正如泽尔达·威廉姆斯所言,这些AI复现"不是他想要的"。这句话提醒我们,在技术狂欢中,不应忘记对逝者的基本尊重。在AI能够轻易重现任何人形象的未来,我们或许需要重新思考"死后安宁"的含义,以及如何在数字世界中保护这一基本权利。