AI深度伪造阴影:揭秘“去衣”应用的全球扩张与法律困境

1

在数字时代的浪潮下,人工智能(AI)技术以前所未有的速度渗透到我们生活的方方面面。其中,一种名为“nudify app”的应用程序,正以其令人不安的方式,引发着关于道德、隐私和法律的深刻讨论。这类应用,能够通过深度伪造技术,将真实人物的图像进行处理,生成虚假的裸照,从而在网络上掀起轩然大波。

AI快讯

“去衣”应用的全球扩张野心

据报道,一家名为Clothoff的“去衣”应用,正计划进行全球扩张,以继续其在深度伪造色情领域的统治地位。这款应用因能够快速且廉价地将真实人物的图像转化为虚假裸照而闻名。尽管面临着法律的制裁和舆论的谴责,但Clothoff似乎并未受到太大的影响。一位 whistle blower 透露,该公司甚至收购了至少10个其他的“去衣”服务,这些服务每月能够吸引数十万甚至数百万的浏览量。

这位 whistle blower 表示,Clothoff的员工在看到这款应用获得成功后,变得“愤世嫉俗”和“obsessed with money”。由于生成一张逼真的虚假裸照只需花费几美元,因此追逐利润似乎依赖于尽可能多地吸引回头客。目前,Clothoff的年度预算约为350万美元,并且已经改变了其营销方式,主要依靠Telegram机器人和X频道,将广告 направленный на тех молодых людей, которые с большей вероятностью будут использовать эти приложения.

营销策略的转变与目标受众的锁定

Clothoff的营销策略已经发生了显著的转变。最初,该应用可能采取了更为广泛的推广方式,但现在,它似乎更加精准地锁定了其目标受众。通过Telegram频道和X平台,Clothoff能够直接触达那些更有可能对“去衣”应用感兴趣的年轻男性。这种精准营销的方式,无疑提高了广告的转化率,也使得Clothoff能够在竞争激烈的市场中脱颖而出。

深度伪造技术的滥用与潜在危害

深度伪造技术,作为一种新兴的人工智能技术,其潜在的应用领域非常广泛。然而,像Clothoff这样的“去衣”应用,却将这项技术用于不道德的目的。通过生成虚假的裸照,这些应用不仅侵犯了受害者的隐私权,还可能对其心理和社会造成严重的伤害。更令人担忧的是,这些应用的使用者往往是年轻人,他们可能并不 fully understand их действия и их возможные последствия.

法律的滞后与监管的困境

面对深度伪造技术的滥用,法律的反应往往显得滞后。尽管一些地区已经开始尝试通过立法来规范深度伪造技术的应用,但由于这项技术的快速发展和不断变化,法律的制定和执行面临着巨大的挑战。此外,由于互联网的匿名性和跨境性,对“去衣”应用的监管也变得异常困难。

Der Spiegel 的调查报告:揭露 Clothoff 的扩张计划

德国媒体 Der Spiegel 的一份报告详细记录了 Clothoff 进军德国市场的“大规模营销计划”。该计划声称要制作“知名 влиятельных лиц, певцов и актрис”的裸照,并以“你选择你想脱掉谁的衣服”为标语来吸引广告点击。报告中提到的几位明星向 Der Spiegel 证实,她们从未同意将自己的肖像用于这种用途,其中一些明星的代表表示,如果该活动 действительно будет запущена, они будут добиваться судебного разбирательства.

然而,即使是像 Taylor Swift 这样的名人,也在努力打击在网上流传的深度伪造裸照。与此同时,像 Clothoff 这样的工具越来越多地被用来折磨中学和高中女生。类似的 celebrity-кампании планируются и для других рынков, включая британский, французский и испанский рынки.值得注意的是,Clothoff 已经成为美国的一种常用工具,不仅是旧金山市检察官诉讼的目标,也是新泽西州一名高中生提起的诉讼中的目标。这名高中生起诉了一名男孩,该男孩 использовал Clothoff, чтобы раздеть одну из ее фотографий в Instagram, сделанных, когда ей было 14 лет, а затем поделился ею с другими мальчиками в Snapchat.

目标受众:16 至 35 岁的男性

Clothoff 似乎希望吸引更多世界各地的年轻男孩使用其应用程序来实现这些目的。 whistle blower 向 Der Spiegel 表示,Clothoff 的大部分营销预算都用于“在 Telegram 频道、Reddit 上的 секс-подразделах 和 4chan 上的广告帖子”。Reddit 向 Ars 指出,Clothoff 的网址自 2024 年以来就被 Reddit 禁止,并且“Reddit 不允许针对 NSFW 内容进行付费 рекламу или иным образом монетизировать ее”。

在广告中,该应用程序计划专门针对喜欢“模因”和“电子游戏”等良性内容的“16 至 35 岁的男性”,以及“右翼极端主义思想”、“厌女症”和“Andrew Tate”等更有害的内容。Andrew Tate 是一位因向青少年男孩宣扬厌女观点而受到批评的影响者。

法律诉讼与 Take It Down Act

Chiu 希望通过关闭 Clothoff 以及他的诉讼中针对的其他几款“去衣”应用程序,来保护越来越多的成为虚假裸照目标的年轻女性。但到目前为止,虽然 Chiu 已经达成了一项关闭 porngen.art 和 undresser.ai 两个网站的和解协议,但通过可用的法律途径送达 Clothoff 的尝试尚未成功。Chiu 办公室的副新闻秘书 Alex Barrett-Shorter 告诉 Ars,Chiu 办公室正在继续努力通过可用的法律渠道送达 Clothoff,这些渠道随着诉讼在法院系统中 продвигается.

与此同时,Clothoff 继续发展,最近 маркетинговала 特点,Clothoff 声称吸引了超过一百万的用户,他们渴望用一张图片制作 explicit-видео.

Clothoff 否认计划使用 влиятельных лиц

Der Spiegel 试图揭露 Clothoff 的运营商,在记者偶然发现了一个“意外地留在互联网上的数据库”后,该数据库似乎暴露了“网站背后的四个核心人物”,从而将该媒体引向了东欧。

Der Spiegel 表示,这与 whistle blower 的说法“一致”,即所有 Clothoff 员工“都在前苏联所属的国家工作”。此外,Der Spiegel 指出,它审查的所有 Clothoff 内部通信都是用俄语写的,并且该网站的电子邮件服务位于俄罗斯。

一位自称 Clothoff 发言人的人士 Elias 否认认识他们的调查中标记的四个人中的任何一个,并对 300 万美元的预算 цифра 提出异议。Elias 声称,保密协议阻止他进一步讨论 Clothoff 的团队。然而,Der Spiegel 在联系后不久注意到,Clothoff 删除了该数据库,该数据库的名称翻译为“我的宝贝”。

关于全球扩张的共享营销计划,Elias 否认 Clothoff 打算使用 влиятельных лиц, 声称“Clothoff 禁止使用未经他人同意的照片”。他还否认 Clothoff 可以用来 раздевать несовершеннолетних 的图像;然而,一位匿名接受 Der Spiegel 采访的 Clothoff 用户证实,他最初尝试生成一位美国歌手的虚假裸照失败了,因为她“看起来可能未成年”。但几天后他的第二次尝试成功地生成了虚假裸照,没有任何问题。这表明 Clothoff 的年龄检测可能 не работает идеально.

随着 Clothoff 的增长似乎 не остановить, 该用户向 Der Spiegel 解释了他为什么 не чувствует 关于使用该应用程序生成一位著名歌手的虚假裸照的冲突。

用户解释说:“互联网上已经有很多她的照片了。”

但是,该用户拒绝生成私人的虚假裸照,并坚持说:“如果我 узнал 有人制作了我女儿的这种照片,我会感到震惊。”

对于那些似乎对创建同学的虚假裸照轻率的年轻男孩来说,后果从停学到青少年刑事指控不等,对于某些人来说,可能会有其他代价。在高中生试图起诉一个使用 Clothoff 欺负她的男孩的诉讼中,参与群聊的男孩目前拒绝分享他们手机上的证据。如果她赢得了这场战斗,她将要求每张共享图像赔偿 15 万美元的损失,因此共享聊天记录可能会增加价格。

自从她和旧金山市检察官分别提起诉讼以来,《Take It Down Act》已经通过。该法律使得强制平台删除 AI 生成的虚假裸照变得更加容易。但专家预计,由于担心 censorship, 该法律将面临法律挑战,因此这种非常有限的法律工具可能无法经受住审查。

无论如何,《Take It Down Act》对于美国“去衣”应用程序的最早受害者来说来得太晚了,他们中的一些人只是因为 largely непрозрачные законы 使不清楚生成虚假裸照是否非法而转向法院寻求正义。

这位高中生的诉状指出:“Jane Doe 是众多已经并将继续受到 искусственным интеллектом 生成的非自愿色情制品剥削、虐待和伤害的女孩和妇女之一。”“尽管已经受到了被告行为的伤害,但 Jane Doe 不得不提起诉讼来保护自己和自己的权利,因为本应保护妇女和儿童免受使用 AI 生成儿童色情制品和非自愿裸体图像的侵害的政府机构未能做到这一点。”

AI快讯