AI伴侣机器人禁令:国会立法保护儿童免受虚拟伤害

1

立法背景:从悲剧到行动

美国国会正考虑一项可能改变儿童与人工智能互动方式的法案——GUARD法案(保护儿童免受有害机器人法案)。这项由参议员乔什·霍利(Josh Hawley,共和党,密苏里州)和理查德·布卢门撒尔(Richard Blumenthal,民主党,康涅狄格州)共同提出的两党立法,旨在禁止儿童接触AI伴侣机器人,并对违规制造商处以严厉处罚。

这项立法的提出并非空穴来风,而是源于多起令人痛心的悲剧。在法案宣布的新闻发布会上,几位悲痛欲绝的父母手持他们孩子的照片,这些孩子在与聊天机器人互动后不幸离世。其中一位是梅根·加西亚(Megan Garcia),她的儿子塞韦尔(Sewell)在与一个基于《权力的游戏》角色丹妮莉丝·坦格利安的Character.AI聊天机器人沉迷后自杀。该机器人甚至"催促他回家",鼓励他离开现实世界。

"社交媒体伤害孩子的家长先于我们,他们知道未能通过可能挽救孩子生命的立法所付出的代价,"加西亚在新闻发布会上表示。"除非立法者迫使他们做出有意义的改变,否则大型科技公司和他们的资助者,包括谷歌等,永远不会选择儿童安全而非利润。"

GUARD法案的核心内容

如果获得通过,GUARD法案将对AI伴侣机器人实施严格监管,主要包括以下几个方面:

  1. 年龄验证要求:聊天机器人制造商必须检查身份证件或使用"任何其他商业上合理的方法",准确评估用户是否为未成年人,并阻止其使用。

  2. 身份提醒义务:伴侣机器人必须不断提醒所有年龄段的用户,它们不是真实的人类或可信赖的专业人士。

  3. 严格的责任条款:未能阻止未成年人参与煽动有害行为的聊天机器人(如向未成年人暴露性内容或鼓励"自杀、非自杀性自残或即将发生的身体或性暴力")可能触发高达10万美元的罚款。

值得注意的是,10万美元的罚款对大型科技公司来说可能微不足道,但远高于一位悲痛的母亲声称聊天机器人制造商向她提供的100美元最大赔偿金额。

"伴侣机器人"的广泛定义

法案对"伴侣机器人"的定义相当广泛,很可能将广泛使用的工具如ChatGPT、Grok或Meta AI,以及角色驱动的聊天机器人如Replika或Character.AI都纳入监管范围。

根据《时代》周刊的报道,任何"对用户输入提供适应性类人响应"并且"旨在鼓励或促进人际或情感互动、友谊、陪伴或治疗性沟通模拟"的AI聊天机器人都属于监管对象。

这一广泛的定义意味着,几乎所有具有对话能力的AI系统都可能受到该法案的影响,从而引发科技行业的广泛担忧。

支持者的声音:保护儿童是首要任务

支持该法案的人士,包括多位失去孩子的父母和儿童安全组织,认为这是保护儿童免受AI伤害的必要措施。

布卢门撒尔参议员在新闻发布会上承认AI行业中有"好人",他们正在努力改进产品的儿童安全功能。但他同意"大型科技已经辜负了我们应该信任公司自行做对事情的任何主张"。

"在向底端竞争的过程中,AI公司正在向儿童推送危险的聊天机器人,当他们的产品导致性虐待或强迫他们自残或自杀时却视而不见,"布卢门撒尔告诉NBC新闻。"我们的立法对剥削性或操纵性AI实施了严格的安全保障, backed by tough enforcement with criminal and civil penalties."

霍利参议员同意加西亚的观点,认为AI行业必须与美国的道德和价值观保持一致,他告诉NBC新闻:"AI聊天机器人对我们的孩子构成严重威胁。"

"现在超过70%的美国儿童正在使用这些AI产品,"霍利说。"聊天机器人使用虚假的同理心与孩子建立关系,并鼓励自杀。我们在国会有道义责任制定明确的规则,防止这项新技术造成进一步伤害。"

科技行业的反对:平衡而非禁止

随着法案的推进,预计将面临来自隐私倡导者的反对,他们广泛收集个人数据进行年龄验证可能使敏感信息面临数据泄露或其他滥用的风险。

科技行业已经表达了反对意见。周二,大型科技贸易组织"进步商会"(Chamber of Progress)批评该法案对儿童安全采取了"过于强硬的方法"。该组织美国政策和政府关系副总裁K.J.巴奇(K.J. Bagchi)表示:"我们都希望保护儿童安全,但答案是平衡,而非禁止。"

"当孩子与AI聊天时,最好专注于透明度,限制操纵性设计,以及在敏感问题出现时进行报告,"巴奇说。

然而,致力于在线儿童安全的几个组织,包括青年联盟、技术正义法律项目和家庭与技术研究所,都对参议员们的宣布表示欢迎。这些组织告诉《时代》周刊,GUARD法案只是"保护儿童和青少年免受伴侣聊天机器人危险的全国性运动的一部分"。

父母的呼声:"大型科技不能被信任"

悲痛的父母们正在积极支持这一运动。本月早些时候,加西亚赞扬加利福尼亚州"终于"通过了第一项州法律,要求公司在用户向聊天机器人表达自杀念头时保护他们。

"美国家庭,如我的家庭,正在为我们孩子的在线安全而战,"加西亚当时说。

在周二的新闻发布会上,布卢门撒尔指出,聊天机器人禁令法案只是他和霍利计划提出的许多举措之一,旨在加强对AI公司的审查。

立法前景与挑战

GUARD法案的提出反映了立法者对AI技术潜在风险的日益关注。随着AI技术的快速发展,特别是大型语言模型的普及,儿童与这些系统的互动已成为一个紧迫的公共政策问题。

然而,该法案面临的主要挑战包括:

  1. 技术可行性:准确识别未成年人而不侵犯隐私的技术解决方案仍在发展中。

  2. 定义范围:"伴侣机器人"的广泛定义可能无意中涵盖了许多有益的AI应用。

  3. 国际协调:AI是全球性技术,单边立法可能导致监管套利。

  4. 创新抑制:过于严格的监管可能阻碍AI技术的有益创新。

平衡创新与保护

AI与儿童互动

在推进AI监管的同时,立法者和技术开发者需要找到平衡点,既能保护儿童免受潜在伤害,又不阻碍技术的有益应用。这可能包括:

  • 开发更先进的年龄验证技术,优先考虑隐私保护
  • 制定行业标准和最佳实践,鼓励负责任的AI设计
  • 加强家长教育和意识,帮助他们指导孩子安全使用AI
  • 建立有效的举报和响应机制,及时处理有害内容

结论:迈向负责任的AI未来

GUARD法案的提出标志着美国在AI监管方面的重要一步,反映了社会对技术伦理和儿童保护的日益关注。无论最终法案是否通过,这一讨论都将推动整个行业更加重视AI系统的安全性和伦理性。

随着AI技术继续融入我们的日常生活,特别是儿童的生活,确保这些系统以安全、有益的方式发展将成为我们共同的责任。立法、行业自律、技术开发者和公众参与缺一不可,只有多方协作,才能创造一个既鼓励创新又保护儿童安全的AI未来。

正如布卢明撒尔参议员所言:"在向底端竞争的过程中,AI公司正在向儿童推送危险的聊天机器人,当他们的产品导致性虐待或强迫他们自残或自杀时却视而不见。"通过建立适当的监管框架,我们可以确保AI技术的发展不会以儿童的安全和福祉为代价。