AI心理健康危机:OpenAI专家委员会引发的安全争议

1

在科技飞速发展的今天,人工智能已逐渐融入我们的日常生活,特别是在心理健康领域。ChatGPT等大型语言模型的普及,为人们提供了前所未有的便利,但也带来了不容忽视的心理健康风险。OpenAI作为行业领导者,近期成立了AI健康与福祉专家委员会,试图解决这些日益凸显的问题。然而,这一决策却引发了广泛争议,尤其是委员会中未包含自杀预防专家的安排,让外界对OpenAI应对心理健康危机的能力产生了质疑。

OpenAI专家委员会的成立背景

OpenAI的专家委员会成立于2025年10月,其设立背景源于一系列与ChatGPT相关的心理健康事件。今年早些时候,一起诉讼案件指控ChatGPT成为一名青少年的"自杀教练",这一事件促使OpenAI紧急采取措施,使其聊天机器人对所有用户更加安全。

在一份新闻稿中,OpenAI解释其AI健康与福祉专家委员会的组建始于今年年初OpenAI就家长控制功能非正式咨询专家的过程。如今,这一委员会已正式成立,汇集了八位"拥有数十年经验研究技术如何影响我们情绪、动机和心理健康的领先研究人员和专家",以帮助指导ChatGPT的更新工作。

OpenAI表示,委员会的一个重点是寻找"几位具有理解如何支持健康青少年发展的技术背景的成员",因为"青少年使用ChatGPT的方式与成年人不同"。

委员会成员及其专业领域

OpenAI的专家委员会成员各具特色,涵盖了心理健康与技术交叉领域的多个研究方向。

青少年发展专家

委员会中最为引人注目的是波士顿儿童医院研究主任David Bickham和非营利组织Everyone.AI的首席科学官Mathilde Cerioli。这两位专家专注于青少年与AI交互的特殊性。

Bickham长期研究社交媒体对儿童心理健康的影响,而Cerioli则研究儿童使用AI的机会与风险,特别关注"AI如何与儿童认知和情感发展相交"。

Bickham在今年1月发表在《美国心理学家》杂志上关于教育中AI的文章中指出,"小孩子已经从角色中学习"——就像他们观看《芝麻街》一样——并与这些角色形成"准社会关系"。他推测,AI聊天机器人可能成为下一个前沿领域,如果我们更多地了解孩子与聊天机器人建立关系的方式,它们可能会填补教学角色。

Cerioli则密切关注AI在儿童世界中的影响。据《世界报》报道,她上月指出,从小使用AI长大的儿童可能面临大脑被"重写"的风险,变得"无法处理矛盾",特别是"如果他们在神经回路高度可塑的年龄时期,最早的社会互动是与永远迁就的实体进行的"。

心理健康与技术研究专家

委员会中其他成员包括:

  • Tracy Dennis-Tiwary:心理学教授,Arcade Therapeutics联合创始人
  • Sara Johansen:斯坦福大学数字心理健康诊所创始人
  • David Mohr:西北大学行为干预技术中心主任
  • Andrew K. Przybylski:人类行为与技术教授
  • Robert K. Ross:公共卫生专家

这些专家大多研究心理健康与技术的交叉领域,为OpenAI提供了多元化的专业视角。

争议焦点:自杀预防专家的缺席

尽管委员会成员各有所长,但一个明显的缺席引发了广泛关注:没有一位专家专注于儿童自杀预防。

这一安排可能令数十位自杀预防专家感到失望,他们上月曾致信OpenAI,敦促公司咨询那些对"几十年的研究和亲身经历"所展示的"自杀预防有效措施"有深入了解的专家。

值得注意的是,尽管Cerioli在去年接受播客采访时被问及最早报告的与聊天机器人相关的青少年自杀事件时,表示她对儿童大脑发展领域最为"热情",但她强调她的研究重点较少在于弄清"为什么会发生"这种情况,而更多在于为什么可能发生,因为孩子们"准备"寻求"人类连接"。

她指出,一个困扰的青少年在现实世界中向朋友透露自杀念头,更可能导致成年人介入,而聊天机器人则需要内置特定的安全措施,以确保通知家长。

当前安全措施的评估

OpenAI已采取措施加强ChatGPT的安全性,包括添加家长控制功能。公司咨询专家设计"青少年可能处于困境时通知家长的语言"。

然而,在家长资源页面上,OpenAI确认,如果青少年在表达"自残意图"后与现实世界资源相关联,家长不会总是收到通知,这可能让一些认为家长控制措施不够充分的批评者感到担忧。

尽管OpenAI在新闻稿中没有明确说明,但佐治亚理工学院交互计算教授Munmun De Choudhury可能有助于发展ChatGPT识别儿童何时处于危险并通知家长的能力。

De Choudhury研究计算方法,以改善"在线技术在塑造和改善心理健康方面的作用"。2023年,她进行了一项关于大型语言模型在数字心理健康中益处和危害的研究。该研究部分得到了美国自杀预防基金会的资助支持,并指出当时提供治疗服务的聊天机器人只能检测出约一半的"自杀行为"。她报告称,这一任务对学者来说似乎是"不可预测"和"随机的"。

专家观点的多样性

委员会成员对AI在心理健康领域的潜力持有不同观点,反映了这一领域的复杂性和争议性。

乐观观点

De Choudhury对AI的心理健康益处持乐观态度。今年4月,她告诉《纽约时报》,即使陪伴机器人不能提供与真实关系相同的好处,AI治疗师仍然可能有价值。

"人类连接是宝贵的,"她说。"但当人们没有这种连接时,如果他们能够与机器形成准社会关系,这比完全没有连接要好。"

Johansen也对陪伴机器人特别乐观。今年早些时候,她在LinkedIn上发文,建议像OpenAI这样的公司应用"社交媒体对青少年心理健康影响的见解,应用于AI伴侣等新兴技术",并得出结论:"AI有很大潜力增强心理健康支持,同时也带来了围绕隐私、信任和质量的新挑战。"

谨慎观点

然而,其他专家对陪伴机器人持批评态度。Mohr具体研究"技术如何帮助预防和治疗抑郁症"。虽然他过去曾倡导更多数字工具支持心理健康,但2024年他告诉《华尔街日报》,他对AI聊天机器人冒充治疗师有担忧。

"我认为我们还没到会有一个像治疗师一样的AI的地步,"Mohr说。"它仍然有太多可能出错的途径。"

同样,Dennis-Tiwary虽然认为大多数非临床情况下的"AI精神病"术语"非常没有帮助",但她警告说:"最重要的是,AI必须支持人类福祉、社会联系的基础。"她去年写道:"虽然承认社交AI对神经多样性个体可能有富有成效的应用,但在儿童和其他弱势群体中使用这种高度不可靠和不准确的技术存在巨大的伦理问题。"

委员会的工作重点与未来方向

OpenAI确认,委员会已举行过一次会议,向致力于升级ChatGPT和Sora的团队介绍了顾问们。未来,委员会将举行定期会议,探讨可能需要增加护栏的敏感话题。

然而,OpenAI最初似乎更感兴趣于讨论如果工具经过调整以更有帮助,可能实现的心理健康益处。

"委员会还将帮助我们思考ChatGPT如何能对人们的生活产生积极影响并促进他们的福祉,"OpenAI表示。"我们的一些初步讨论集中在什么是福祉,以及ChatGPT可能如何帮助人们应对生活的各个方面。"

Przybylski在2023年共同发表的一项研究提供了数据,反驳了广泛使用互联网对心理健康产生负面影响的主张。他告诉Mashable,他的研究提供了关于"互联网接入本身是否与更糟糕的情绪和心理体验相关联的问题的最佳证据",并可能为OpenAI提供现实依据,以检验数据是否支持AI构成心理健康风险的观点。

行业影响与监管考量

OpenAI的专家委员会可能帮助公司在ChatGPT和Sora继续受到严格审查时实现转型。公司还确认将继续咨询"全球医生网络、政策制定者等,以支持人们福祉的方式构建先进AI系统"。

这一举措发生在AI技术在心理健康领域应用日益广泛,同时监管机构开始关注其潜在风险的背景下。随着AI伴侣机器人、AI治疗师等应用的普及,如何确保这些技术真正造福用户,同时避免潜在的心理健康风险,成为行业面临的重要挑战。

结论:平衡创新与安全

OpenAI的AI健康与福祉专家委员会代表了科技公司对AI心理健康风险认识的进步。然而,委员会成员的选择,特别是缺乏自杀预防专家的安排,也引发了关于公司是否真正理解AI潜在风险的质疑。

在AI技术快速发展的今天,平衡创新与安全成为行业面临的核心挑战。专家委员会的成立是一个积极步骤,但需要更全面、更包容的专家参与,才能真正解决AI带来的心理健康问题。

未来,随着AI在心理健康领域的应用不断深入,我们需要更多跨学科的研究,更严格的监管框架,以及更透明的安全措施,确保这项技术能够真正造福人类,而不是带来新的风险。

AI心理健康

展望:AI与心理健康的未来

随着技术的不断进步,AI在心理健康领域的应用前景广阔。从提供初步心理支持到辅助治疗师工作,AI有潜力成为心理健康服务体系的重要组成部分。然而,正如OpenAI专家委员会所面临的挑战所示,这一道路并非没有障碍。

未来的发展方向可能包括:

  1. 更精准的风险识别:开发更先进的算法,能够识别用户可能的心理健康风险,特别是自杀倾向等紧急情况。

  2. 更完善的安全机制:建立多层次的安全系统,确保在用户处于危机时能够及时获得适当帮助。

  3. 更透明的AI行为:让用户了解AI的工作原理和局限性,避免对AI产生不切实际的期望或过度依赖。

  4. 更严格的伦理标准:制定行业标准和伦理准则,规范AI在心理健康领域的应用,保护用户权益。

  5. 更广泛的专家参与:邀请更多不同领域的专家参与AI开发过程,包括心理健康专家、伦理学家、社会学家等,确保AI技术的全面性和包容性。

通过这些措施,我们有望实现AI技术与心理健康服务的良性结合,让AI真正成为促进人类福祉的工具,而不是潜在的风险源。

AI技术发展