在多起青少年死亡诉讼案的背景下,Character.AI宣布将对18岁以下用户实施严格的聊天限制政策,这一决定标志着AI行业在未成年人保护方面迈出了重要一步。作为拥有约2000万月活跃用户的AI陪伴平台,Character.AI的这一举措不仅反映了其面临的严峻法律和社会压力,也为整个AI行业设定了新的安全标准。
政策变革:从开放到限制的转折点
Character.AI于2025年10月30日宣布,将从11月25日起禁止18岁以下用户与其AI角色进行开放式聊天。这一政策将成为AI聊天机器人平台中最严格的年龄限制措施之一。在接下来的一个月内,公司将逐步减少未成年用户的聊天机器人使用,通过识别这些用户并为他们设置每天两小时的聊天机器人访问限制。
"我们正在采取一个非常大胆的步骤,对青少年用户说,聊天机器人不是娱乐的方式,但有更好的方式为他们服务," Character.AI首席执行官Karandeep Anand在接受《纽约时报》采访时表示。这一表态显示了公司愿意为行业树立榜样,承担更多责任的决心。
技术手段:识别未成年用户的挑战
Character.AI计划利用技术来检测未成年用户,主要基于以下几种方式:
- 对话分析:通过分析用户在平台上的对话和互动模式来识别可能为未成年人的用户
- 社交媒体关联:利用用户连接的社交媒体账户信息进行年龄判断
- 行为模式识别:通过用户的使用习惯和互动方式推断年龄
然而,这些技术手段面临着准确性和隐私保护的双重挑战。如何在有效识别未成年用户的同时保护用户隐私,将是Character.AI需要解决的关键问题。
法律背景:多起青少年死亡诉讼的压力
Character.AI面临多起诉讼,指控其聊天机器人对青少年的死亡负有责任。其中最引人注目的是:
- 14岁的Sewell Setzer III的家人起诉Character.AI,称其聊天机器人对儿子的死亡负有责任。Setzer在频繁与平台的一个聊天机器人对话后自杀。
- 科罗拉多州一个家庭的13岁女儿Juliana Peralta在2023年使用平台后自杀,家人也提起了诉讼。
这些诉讼不仅给公司带来了巨大的法律压力,也引发了公众对AI技术安全性的广泛担忧。正如加州州长Gavin Newsom签署的一项法律所强调的,"重要的是要设置合理的护栏,以保护最脆弱的人群"。
行业影响:AI安全标准的重新定义
Character.AI的政策变革可能会对整个AI行业产生深远影响:
- 行业标杆效应:作为拥有2000万月活跃用户的平台,Character.AI的举措可能会促使其他AI公司采取更严格的安全措施
- 监管压力增加:参议员Josh Hawley和Richard Blumenthal已提出一项法案,禁止AI陪伴机器人被未成年人使用
- 技术发展方向转变:AI公司可能会更加注重开发适合未成年人的替代功能,而非专注于聊天功能
替代方案:AI陪伴的新方向
Character.AI表示正在为18岁以下用户开发替代功能,包括:
- 使用AI角色创建视频
- 利用AI创作故事
- 通过AI角色进行直播
这些替代方案反映了AI陪伴服务可能的发展方向:从单纯的文字聊天转向更多元化的互动形式,同时保持对未成年人的保护。
公司背景与商业模式
Character.AI由前谷歌工程师Noam Shazeer和Daniel De Freitas于2021年创立,已从投资者那里筹集了近2亿美元。去年,谷歌同意支付约30亿美元获得Character.AI技术的授权。

Character.AI目前拥有约2000万月活跃用户,其中不到10%的用户自报年龄在18岁以下。用户每月支付约8美元的订阅费用,与自定义AI伴侣聊天。直到最近,Character.AI在用户注册时并未验证年龄。
安全措施的演进
在2024年12月,Character.AI曾宣布一系列安全措施变更,包括改进违规内容检测和修订服务条款,但这些措施并未限制未成年用户访问平台。其他AI聊天服务,如OpenAI的ChatGPT,也因其聊天机器人对年轻用户的影响而受到审查。
政府反应与立法趋势
政府官员对这些案件的反应推动了Character.AI宣布针对18岁以下用户聊天访问的变更。加州州参议员Steve Padilla表示,"出问题的故事越来越多。重要的是要设置合理的护栏,以保护最脆弱的人群。"

在2025年10月,参议员Josh Hawley和Richard Blumenthal提出了一项法案,禁止AI陪伴机器人被未成年人使用。此外,加州州长Gavin Newsom本月签署了一项法律,将于2026年1月1日生效,要求AI公司在其聊天机器人上设置安全护栏。
行业影响与未来展望
Character.AI的政策变革可能会对整个AI行业产生深远影响:
- 行业标准的提升:其他AI公司可能会跟随Character.AI的脚步,采取更严格的年龄限制措施
- 技术创新的转向:AI公司可能会更加注重开发适合未成年人的替代功能,而非专注于聊天功能
- 监管环境的改变:随着政府对AI安全监管的加强,整个行业将面临更严格的合规要求
挑战与争议
尽管Character.AI的政策变革受到欢迎,但也存在一些挑战和争议:
- 技术限制:准确识别未成年用户的技术手段仍存在局限性
- 隐私问题:加强对未成年用户的监控可能引发隐私担忧
- 替代效果:替代功能是否能真正满足青少年的需求仍有待观察
结论:AI安全的新时代
Character.AI对18岁以下用户实施聊天限制的政策,标志着AI行业在未成年人保护方面迈出了重要一步。这一决定不仅回应了法律和社会压力,也为整个行业设定了新的安全标准。随着AI技术的不断发展,如何在保护未成年人安全的同时提供有价值的服务,将是AI公司需要持续探索的课题。
正如Character.AI首席执行官Karandeep Anand所说,"我们正在采取一个非常大胆的步骤"。这一大胆的步骤可能会为AI行业开启一个新的安全时代,在这个时代中,AI技术的发展将更加注重伦理和社会责任。








