AI换脸应用“脱衣舞”的深度造假色情统治计划依赖于Reddit、4chan和Telegram
最近的一项调查揭示了一个名为Clothoff的AI换脸应用程序(也称为“nudify app”)的惊人计划,该计划旨在通过利用Reddit、4chan和Telegram等平台,进一步扩大其在深度造假色情领域的统治地位。这一消息引发了关于数字隐私、同意以及人工智能技术滥用的严重担忧。
Clothoff的崛起与争议
Clothoff是一款允许用户快速、廉价地将真实人物的照片转换为虚假裸照的应用程序。自推出以来,它一直备受争议。旧金山市检察官David Chiu曾于去年8月提起诉讼,试图迫使其关闭。然而,一位前Clothoff员工透露,该公司似乎并未受到诉讼的影响,反而收购了一个由至少10个类似应用程序组成的网络,这些应用每月吸引数百万的访问量。
这位不愿透露姓名的举报人表示,Clothoff员工随着时间的推移变得“愤世嫉俗”且“痴迷于金钱”。由于生成逼真的虚假裸照成本低廉,该公司似乎专注于吸引尽可能多的用户访问其多个平台,以追求利润最大化。目前,Clothoff的年度预算约为350万美元,其营销策略已从最初的推广转向主要依赖Telegram机器人和X(前Twitter)频道,以针对可能使用其应用程序的年轻男性。
营销策略的曝光
据称,Clothoff制定了一项大规模营销计划,旨在扩展到德国市场。该计划的核心是制作“知名网红、歌手和女演员的裸照”,并以“你选择想给谁脱衣服”的标语来吸引点击。一些被提及的明星已经证实,她们从未同意将其形象用于此目的,并且她们的代表表示,如果该活动启动,将采取法律行动。然而,即使是像Taylor Swift这样的名人也难以阻止深度造假裸照在网上的传播。同时,像Clothoff这样的工具越来越多地被用于骚扰初高中女生。
类似的名人营销活动也计划在英国、法国和西班牙市场推出。在美国,Clothoff已经成为一个备受关注的目标,不仅是旧金山市检察官诉讼的对象,也是新泽西州一名高中生提起的诉讼的对象。该学生指控一名男孩使用Clothoff对其14岁时拍摄的Instagram照片进行裸照处理,并将其分享给Snapchat上的其他男孩。
平台的角色与责任
Clothoff似乎希望吸引更多全球范围内的年轻男孩使用其应用程序。举报人透露,Clothoff的大部分营销预算都用于“在特定的Telegram频道、Reddit上的性相关版块以及4chan上投放广告”。Reddit方面表示,自2024年以来,Clothoff的URL已被禁止,并且“Reddit不允许针对NSFW内容进行付费广告或以其他方式将其货币化”。
该应用程序计划专门针对“16至35岁之间的男性”,这些人喜欢“表情包”和“电子游戏”等内容,以及“右翼极端主义思想”、“厌女症”和“Andrew Tate”等更具毒性的内容。Andrew Tate是一位因向青少年男孩宣传厌女观点而备受批评的网红。
法律挑战与应对
旧金山市检察官Chiu希望通过关闭Clothoff及其它nudify应用程序来保护越来越多的成为虚假裸照目标的年轻女性。然而,尽管Chiu已达成和解,关闭了porngen.art和undresser.ai两个网站,但通过现有法律渠道向Clothoff发出传票的尝试尚未成功。Chiu的办公室正在继续努力通过可用的法律渠道向Clothoff发出传票。Chiu办公室的副新闻秘书Alex Barrett-Shorter表示,这些渠道随着诉讼在法院系统的进展而不断演变。
与此同时,Clothoff不断发展,最近推出了一项功能,声称吸引了超过一百万的用户,他们渴望用一张照片制作露骨视频。
Clothoff否认计划使用网红
《Der Spiegel》试图揭露Clothoff的运营者,最终将该媒体带到了东欧。记者们偶然发现了一个“意外地在互联网上开放的数据库”,该数据库似乎暴露了“该网站背后的四个核心人物”。《Der Spiegel》表示,这与一位举报人的说法相符,即所有Clothoff员工“都在前苏联国家工作”。此外,《Der Spiegel》指出,其审查的所有Clothoff内部通讯都是用俄语编写的,并且该网站的电子邮件服务位于俄罗斯。
一位自称Clothoff发言人的人士Elias否认认识调查中标记的任何四个人,并对300万美元的预算数字提出异议。Elias声称,保密协议阻止他进一步讨论Clothoff的团队。然而,《Der Spiegel》指出,在联系后不久,Clothoff撤下了该数据库,该数据库的名称翻译为“我的宝贝”。
关于全球扩张的共享营销计划,Elias否认Clothoff打算使用名人网红,并表示“Clothoff禁止在未经他人同意的情况下使用他人照片”。
他还否认Clothoff可以用来裸化未成年人的图像;然而,一位匿名与《Der Spiegel》交谈的Clothoff用户证实,他最初试图生成一张美国歌手的虚假裸照失败了,因为她“看起来可能未成年”。但几天后,他的第二次尝试成功生成了假裸照,没有任何问题。这表明Clothoff的年龄检测可能无法完美运行。
随着Clothoff的增长似乎不可阻挡,该用户向《Der Spiegel》解释了他为什么不觉得使用该应用程序生成一位著名歌手的虚假裸照有冲突。
“她在互联网上已经有很多照片了,”该用户辩解道。
然而,该用户拒绝生成私人个人的虚假裸照,并坚持认为,“如果我发现有人制作我女儿的此类照片,我会感到震惊。”
法律的滞后与受害者的困境
对于那些似乎对制作同学的虚假裸照轻描淡写的年轻男孩来说,其后果从停学到青少年刑事指控不等,对于某些人来说,还可能存在其他代价。在高中生试图起诉一名使用Clothoff欺负她的男孩的诉讼中,参与群聊的男孩目前抵制分享他们手机上的证据。如果她赢得官司,她将要求每张共享图像赔偿15万美元的损失,因此共享聊天记录可能会增加价格。
自从她和旧金山市检察官分别提起诉讼以来,《停止传播法案》已经通过。该法案使得强制平台删除AI生成的虚假裸照变得更加容易。但专家预计该法律将因审查担忧而面临法律挑战,因此这种非常有限的法律工具可能无法经受住审查。
无论如何,《停止传播法案》对于美国nudify应用程序的最早受害者来说,是一项来得太晚的保障措施,其中只有一部分人因在很大程度上不透明的法律而寻求正义,这些法律使得生成虚假裸照是否非法变得不清楚。
“Jane Doe是众多已经并将继续受到人工智能生成的非自愿色情制品剥削、虐待和迫害的女孩和妇女之一,”高中生的诉状指出。“尽管已经受到被告行为的侵害,但Jane Doe不得不提起诉讼以保护自己和她的权利,因为本应保护妇女和儿童免受使用人工智能生成儿童色情制品和非自愿裸照的侵犯和剥削的政府机构未能做到这一点。”