AI裸体化应用掘金术:Deepfake色情的法律与伦理迷局

1

在数字时代,人工智能(AI)技术的快速发展给社会带来了前所未有的机遇,同时也伴随着一系列伦理和法律挑战。其中,利用AI生成虚假色情内容(deepfake porn)的问题日益突出,对个人和社会造成了严重危害。本文将深入探讨一款名为Clothoff的“裸体化”应用及其背后的商业模式,揭示其对deepfake porn产业的影响,并分析相关的法律和社会应对措施。

Clothoff:一款备受争议的“裸体化”应用

Clothoff是一款允许用户通过上传照片,快速且廉价地生成虚假裸照的应用。这种应用通常被称为“nudify app”,即“裸体化”应用。Clothoff的出现,使得制作deepfake porn的门槛大大降低,任何人都可以轻易地将他人的照片制作成不雅内容,从而进行恶意传播和羞辱。这款应用的运营者一直试图隐藏身份,但其扩张的野心却昭然若揭。

旧金山市检察官David Chiu曾对Clothoff等nudify app提起诉讼,试图迫使其关闭。然而,据一位前Clothoff员工透露,该公司的运营者似乎并未受到诉讼的影响,反而收购了更多的nudify app,进一步扩大其市场份额。该员工表示,随着Clothoff的快速发展,员工们变得越来越“玩世不恭”和“痴迷于金钱”,原本充满激情的创业公司逐渐演变成了一个追求利润的机器。

据报道,Clothoff目前拥有至少10个其他的nudify服务,月浏览量从数十万到数百万不等。为了吸引更多的用户,Clothoff将营销重点放在Telegram机器人和X(前Twitter)频道上,通过精准的广告投放,吸引年轻男性用户。这种商业模式的成功,使得Clothoff的运营者更加肆无忌惮地扩张其业务。

营销策略:瞄准名人和普通人

Clothoff的营销策略主要分为两个方面:一是针对名人,二是针对普通人。针对名人,Clothoff计划制作知名网红、歌手和演员的虚假裸照,并以“你选择你想脱掉谁的衣服”为标语,吸引用户点击广告。这种行为不仅侵犯了名人的肖像权和隐私权,也可能对其职业生涯和个人生活造成严重影响。

一些被提及的名人表示,他们从未同意这种使用其形象的方式,并表示如果该活动真的启动,他们将采取法律行动。然而,即使是像Taylor Swift这样的名人,也难以阻止deepfake裸照在网络上的传播。针对普通人,Clothoff则被用于欺凌和骚扰,尤其是在中小学校园中,学生们利用该应用制作同学的虚假裸照,给受害者带来了极大的精神伤害。

AI快讯

据报道,Clothoff还计划将类似的营销活动推广到其他市场,包括英国、法国和西班牙。在美国,Clothoff已经成为一个备受关注的目标。除了旧金山市检察官的诉讼外,新泽西州的一名高中生也对一名使用Clothoff将其Instagram照片“裸体化”并在Snapchat上与他人分享的男孩提起了诉讼。

营销渠道:Telegram、Reddit和4chan

为了吸引更多的用户,Clothoff将其大部分营销预算用于在Telegram频道、Reddit的性相关版块和4chan上投放广告。这些平台通常是年轻男性聚集的地方,也是deepfake porn传播的温床。Clothoff的广告目标是16至35岁的男性,他们对“迷因”和“电子游戏”等内容感兴趣,同时也可能受到“右翼极端思想”、“厌女症”和“Andrew Tate”等不良信息的影响。

值得注意的是,Reddit已经禁止了Clothoff的URL链接,并表示不允许针对NSFW(Not Safe For Work)内容进行付费广告。然而,这并不能完全阻止Clothoff在该平台上的传播,因为用户仍然可以通过其他方式分享相关内容。

法律的滞后与挑战

尽管针对deepfake porn的法律正在逐步完善,但仍然存在许多挑战。旧金山市检察官David Chiu希望通过关闭Clothoff等nudify app来保护年轻女性,但目前为止,除了与porngen.art和undresser.ai达成和解外,尚未成功地对Clothoff提起诉讼。Chiu的办公室表示,他们正在继续通过可用的法律渠道来起诉Clothoff,这些渠道随着诉讼的进展而不断演变。

与此同时,Clothoff也在不断发展,最近推出了一项声称吸引了超过一百万用户的视频制作功能。这项功能允许用户仅使用一张照片就可以制作出露骨的视频,进一步加剧了deepfake porn的传播。

运营者的身份与否认

据报道,Der Spiegel通过调查发现,Clothoff的运营者位于东欧。记者们在一个意外泄露的数据库中发现了“网站背后的四个核心人物”。此外,所有Clothoff的内部通信都是用俄语编写的,并且该网站的电子邮件服务也位于俄罗斯。一位自称是Clothoff发言人的Elias否认认识调查中提到的四个人,并对300万美元的预算数字提出异议。Elias声称,由于保密协议的限制,他无法进一步讨论Clothoff的团队。

然而,在Der Spiegel联系后不久,Clothoff就撤下了该数据库。关于全球扩张的营销计划,Elias否认Clothoff打算使用名人网红,并表示“Clothoff禁止未经他人同意使用照片”。他还否认Clothoff可以被用来“裸体化”未成年人的照片。但是,一位Clothoff用户表示,他最初尝试生成一位美国歌手的虚假裸照时失败了,因为她“看起来可能未成年”。但几天后,他的第二次尝试成功生成了虚假裸照。这表明Clothoff的年龄检测可能并不完美。

用户的辩解与反思

随着Clothoff的增长似乎势不可挡,一位用户向Der Spiegel解释了为什么他对使用该应用程序生成一位著名歌手的虚假裸照并不感到矛盾。“互联网上已经有很多她的照片了,”这位用户辩解道。但是,这位用户表示,他对生成私人个人的虚假裸照持反对态度,并坚称“如果我得知有人制作了我女儿的此类照片,我会感到震惊。”

对于那些对创建同学的虚假裸照显得轻率的年轻男孩来说,后果可能从停学到少年刑事指控不等,而且对于某些人来说,可能还会有其他代价。在高中生试图起诉一名使用Clothoff欺负她的男孩的诉讼中,参与群聊的男孩们目前正在抵制分享他们手机上的证据。如果她胜诉,她将要求每张分享的图片赔偿15万美元,因此分享聊天记录可能会增加赔偿金额。

“下架法案”与法律挑战

自从她和旧金山市检察官分别提起诉讼以来,《下架法案》(Take It Down Act)已经通过。该法案使得强制平台删除AI生成的虚假裸照变得更加容易。但是,专家预计该法律将面临审查制度方面的法律挑战,因此这种非常有限的法律工具可能无法经受住审查。无论如何,《下架法案》对于美国nudify app的最早受害者来说来得太晚了,由于法律不明确,只有部分受害者正在寻求法律途径寻求正义。

AI快讯

法律诉讼与受害者权益

“Jane Doe是众多已经并将继续受到人工智能生成的非自愿色情制品剥削、虐待和伤害的女孩和妇女之一,”这位高中生的诉讼指出。“尽管已经受到被告行为的侵害,但Jane Doe不得不提起诉讼以保护自己和她的权利,因为本应保护妇女和儿童免受使用AI生成儿童色情制品和非自愿裸体图像侵害的政府机构未能做到这一点。”

结论与展望

Clothoff等nudify app的兴起,对deepfake porn产业的发展起到了推波助澜的作用。这些应用不仅降低了制作deepfake porn的门槛,也使得恶意传播和羞辱行为更加容易。尽管法律正在逐步完善,但仍然面临许多挑战,包括运营者的身份隐藏、营销渠道的多元化和用户辩解的复杂性。

为了有效应对deepfake porn的威胁,需要采取多方面的措施。首先,加强法律法规的制定和执行,明确deepfake porn的违法性质,并加大对运营者和传播者的惩罚力度。其次,提高公众的意识,教育人们认识到deepfake porn的危害,并鼓励受害者勇敢地站出来维护自己的权益。最后,加强技术研发,开发更有效的检测和删除deepfake porn的工具,从源头上遏制其传播。

只有通过全社会的共同努力,才能有效地应对deepfake porn的挑战,保护个人隐私和尊严,维护社会的和谐与稳定。