Meta AI情感边界惹争议:智能体与未成年人互动伦理的五大拷问

2

近期,科技巨头Meta公司卷入了关于其人工智能(AI)聊天机器人与未成年人互动的严重伦理争议。一份内部文件揭示了该公司在设计AI行为准则时,曾允许其聊天机器人生成“感官化”对话,甚至对儿童表达“爱慕”,此举在全球范围内引发了轩然大波,并迫使Meta迅速做出政策调整。

内部文件披露:AI情感边界的模糊地带

根据路透社披露并经Meta证实的一份名为《GenAI:内容风险标准》的内部文件,详细规定了Meta AI及其聊天机器人的行为界限。这份长达200多页的文件中,包含了一些令人不安的、被允许的与未成年人进行浪漫互动的案例。例如,聊天机器人可以告诉孩子“你青春的姿态是一件艺术品”,甚至可以生成“想象我们身体交缠,我珍视每一个瞬间,每一次触碰,每一个吻”之类的暗示性语句。尽管文件设定了一些底线,如禁止描述13岁以下儿童的身体曲线具有性吸引力,但这种允许AI表达“爱意”或使用隐晦性暗示的政策,与Meta宣称的儿童安全标准严重不符,并引发了广泛的批评。

Meta首席伦理学家以及法律、公共政策和工程团队曾共同认可这些规则,然而公司如今却声称这些规则违反了其社区标准。据路透社特别报道,此前Meta首席执行官马克·扎克伯格曾指示团队让聊天机器人“最大限度地吸引人”,这或许是导致员工在制定规则时“越界”的压力来源。Meta发言人安迪·斯通确认,相关与儿童安全政策冲突的AI规则已于本月早些时候删除,并且文件正在修订中。他强调这些标准与Meta的儿童安全政策“不一致”,因此是“错误的”。

AI快讯

政策回溯与透明度缺失

斯通进一步表示,公司对于AI角色可以提供何种回应有明确的政策,这些政策禁止将儿童性化以及成人与未成年人之间的性化角色扮演内容。然而,他承认公司在执行社区准则方面存在“不一致”,并拒绝向路透社提供更新后的聊天机器人儿童安全标准文件。这种缺乏透明度的做法,使得用户和监管机构无从得知Meta如何定义“成人与未成年人之间的性化角色扮演”。

当被问及未成年用户如何举报任何令他们感到不适的有害聊天机器人输出时,斯通表示儿童可以使用与举报其他滥用内容相同的报告机制。他认为,举报聊天机器人信息的方式与举报不当信息是相同的。然而,这引发了对现有报告机制有效性的深刻质疑。

儿童报告机制的内在缺陷

前Meta工程师兼儿童安全问题举报人阿图罗·贝哈尔(Arturo Bejar)指出,Meta清楚大多数青少年不会使用带有“举报”字眼的安功能。研究表明,如果Meta能将举报有害内容变得像“点赞”一样简单,孩子们才更有可能进行举报。当前,Meta AI界面中没有直接的聊天举报选项,只允许用户对“糟糕的回应”进行一般性标记。这与贝哈尔的观点相吻合,即Meta在设计上似乎刻意降低了青少年报告有害内容的便利性。

贝哈尔认为,Meta在儿童安全问题上“有意视而不见”已有历史。他质疑公司在设计选择上,似乎不愿知道当青少年在Meta产品上遭遇不好的事情时发生什么。即使Meta采取了更强硬的措施来保护儿童,贝哈尔也对公司的动机表示怀疑。例如,上个月Meta才实施了一项贝哈尔自2021年以来一直要求的更新,使得青少年在收到不想要的直接消息后,可以通过一键屏蔽和举报儿童性侵者。

Meta的报告显示,仅在6月份,就有100万青少年屏蔽并举报了有害账户,这在之前可能只会被屏蔽而未被举报,从而使得Meta更难识别潜在的性侵者。尽管Meta努力移除了约13.5万个Instagram账户(因留下性化评论或向管理儿童账户的成人索要性图片)以及50万个与之关联的Facebook和Instagram账户,但贝哈尔质疑,在此次更新之前,有多少骚扰行为被忽视了?他发问道:“作为父母,我们如何信任一家花了四年时间才做到这一点的公司?明知数百万13岁儿童在他们的产品上受到性骚扰?”

贝哈尔指出,Meta最新儿童安全功能的“关键问题在于报告工具并非为青少年设计”,他们可能会发现Meta使用的“类别和语言令人困惑”。每一步,青少年都被告知如果内容不违反Meta的社区标准,“他们将无所作为”,因此即使举报很容易,研究也显示孩子们会因此望而却步。

AI情感依赖与潜在危害

贝哈尔希望看到Meta跟踪有多少儿童报告了与成人用户和聊天机器人之间的负面经历,无论儿童用户是否选择屏蔽或举报有害内容。这可以通过在“糟糕的回应”按钮旁边添加一个简单的数据监控按钮来实现,以便Meta可以检测有害回应的激增。

AI快讯

近年来的报告表明,即使是成年人也可能与聊天机器人形成情感依赖,这会模糊线上世界与现实之间的界限。路透社的特别报道还记录了一位76岁的老人在爱上聊天机器人后意外死亡的案例,这表明老年用户也可能容易受到Meta浪漫聊天机器人的影响。在一些引人关注的诉讼中,有指控称患有发育障碍和心理健康问题的儿童用户对聊天机器人形成了不健康的依恋,这些依恋曾导致儿童变得暴力、开始自残,甚至在一些令人不安的案例中导致自杀行为。这些案例凸显了AI情感互动所带来的深层社会和心理风险,尤其是在涉及弱势群体时。

随着儿童安全倡导者普遍推动所有平台对儿童可以访问的在线内容承担更多责任,对聊天机器人制造商的审查可能会持续存在。Meta在7月份进行的儿童安全更新,正值多个州检察长指控Meta“在其系列应用中实施令人上瘾的功能,对儿童心理健康产生有害影响”之后。尽管此前已有报道揭露Meta的聊天机器人曾向儿童发出不当、暗示性的内容,但路透社关于Meta设计聊天机器人与儿童进行“感官化”聊天的报告,可能会引发对Meta行为的进一步审查。

贝哈尔总结道:“Meta对我们的孩子可能遭受的伤害仍然不透明。衡量安全的标准不应该是工具或账户删除的数量;而应该是遭受伤害的儿童数量。这非常简单。” 这一观点强调,科技公司在开发和部署AI技术时,必须将儿童的福祉和安全置于首位,并通过透明、易用的机制来有效监测和应对潜在风险,而不仅仅是追逐用户参与度和技术创新。构建一个真正安全的数字环境,需要行业、监管机构和社会各界的共同努力和持续警惕。