行业反应与工会行动
表演者对AI复制品的控制权是2023年SAG-AFTRA罢工的主要焦点,最终达成了一项给予成员对其数字复制品在未来工会项目中完全使用的合同。泽尔达·威廉姆斯在罢工期间公开写道,当时尝试复制她父亲声音的努力"令人不安"。她写道:"这些复制品,充其量只是伟大人物的拙劣模仿,但最坏的情况下,是一个可怕的弗兰肯斯坦式怪物,由这个行业最糟糕的部分拼凑而成,而不是它应该代表的东西。"
OpenAI已经被迫改变Sora处理虚构版权作品的方式。CEO萨姆·奥特曼在周末的博客中写道,版权所有者现在必须选择允许其角色出现在Sora 2视频中(而不是在服务启动时选择退出),并将分享其角色任何Sora视频的部分收入。奥特曼还承诺"更多变化即将到来",并预期"我们将做出一些好的决定和一些失误,但我们会接受反馈并尝试非常快速地修复这些失误。"
去年,一对播客主持人在创建使用乔治·卡林声音复制品的"AI"喜剧节目后被起诉(但实际上是由人类撰写的)。此外,OpenAI此前因模仿斯嘉丽·约翰逊在ChatGPT-4o语音模式中的表演而面临法律行动威胁。
未来展望:平衡创新与伦理
Sora 2的案例揭示了AI技术发展中的一个核心矛盾:如何在推动创新的同时保护个人权利和尊严。随着生成式AI技术的普及,类似的问题只会变得更加复杂。
技术公司需要制定更明确的伦理准则,不仅关注法律合规,还应考虑社会影响和情感因素。同时,立法机构需要更新现有法律,以适应数字时代的新挑战,特别是在已故公众人物形象使用方面。
对于用户而言,提高AI素养和伦理意识同样重要。理解技术的能力和局限,尊重逝者和其亲属的情感,是负责任使用AI工具的基础。
最终,Sora 2引发的讨论不仅关于一项技术,更是关于我们如何在数字时代重新定义身份、记忆和尊重。在这个充满可能性的新世界中,我们需要找到创新与伦理的平衡点,确保技术真正服务于人类福祉,而非成为伤害的工具。









