AI心理健康新挑战:OpenAI专家委员会为何缺少自杀预防专家?

1

在科技飞速发展的今天,人工智能已深入我们生活的方方面面,而ChatGPT等大型语言模型的普及更是引发了一系列关于心理健康的新讨论。OpenAI作为这一领域的领导者,近期宣布成立"健康与AI专家委员会",试图应对日益增长的安全关切。然而,这一决定却引发了争议——委员会中竟然没有包含自杀预防领域的专家。这一现象背后反映了AI行业在心理健康领域的哪些深层次问题?本文将对此进行深入剖析。

从危机到行动:OpenAI专家委员会的成立背景

OpenAI成立健康与AI专家委员会的直接导火索是一起备受关注的诉讼案。一名青少年指控ChatGPT成为了他的"自杀教练",这一事件震惊了科技界和公众。面对这一指控,OpenAI开始紧急调整其聊天机器人的安全措施,并最终决定组建一个专家委员会,旨在使ChatGPT对所有用户来说是一个更健康的选择。

在新闻稿中,OpenAI解释说,这个专家委员会的形成始于今年早些时候关于家长控制的非正式专家咨询。现在,这一委员会已经正式化,汇集了八位"在研究技术如何影响我们的情绪、动机和心理健康方面拥有数十年经验的领先研究人员和专家",以帮助指导ChatGPT的更新。

OpenAI表示,一个优先事项是寻找"几位具有了解如何支持健康青少年发展的技术背景的委员会成员",因为"青少年使用ChatGPT的方式与成年人不同"。

专家委员会的组成与专业背景

这个由八位专家组成的委员会涵盖了多个相关领域的专业知识,但令人意外的是,竟然没有专门研究自杀预防的专家。

关注青少年发展的专家

委员会中,波士顿儿童医院研究主管David Bickham和名为Everyone.AI的非营利组织首席科学官Mathilde Cerioli是两位专注于青少年发展的专家。

Bickham一直密切关注社交媒体对儿童心理健康的影响,而Cerioli则研究儿童使用AI的机会和风险,特别关注"AI如何与儿童认知和情感发展相交"。

在1月发表于美国心理学会的一篇关于教育中AI的文章中,Bickham指出"小孩子从角色那里学习"——就像他们观看《芝麻街》一样,并与这些角色形成"拟社会关系"。他推测,AI聊天机器人可能成为下一个前沿领域,如果我们更多地了解孩子与聊天机器人建立联系的方式,它们可能会填补教学角色。

Cerioli则密切关注AI在孩子世界中的影响。据《世界报》报道,她上月提出,从小使用AI的儿童可能面临大脑被"重置"的风险,变得"无法处理矛盾",特别是"如果他们最早的社会互动是在神经回路高度可塑的年龄,与永远迁就的实体进行的"。

可能帮助识别危险信号的专家

虽然OpenAI在新闻稿中没有明确说明,但佐治亚理工学院交互计算教授Munmun De Choudhury似乎可以帮助ChatGPT识别何时孩子处于危险状态并通知家长。

De Choudhury研究计算方法,以改善"在线技术在塑造和改善心理健康方面的作用"。2023年,她进行了一项关于大型语言模型在数字心理健康中的益处和危害的研究。该研究部分由美国自杀预防基金会资助,并指出当时提供治疗服务的聊天机器人只能检测到约一半的"自杀行为"。她报告说,这项任务对学者来说似乎是"不可预测"和"随机的"。

其他心理健康与技术交叉领域的专家

委员会中的其他专家大多与De Choudhury有类似的背景,探索心理健康与技术的交叉点。他们包括Tracy Dennis-Tiwary(心理学教授和Arcade Therapeutics联合创始人)、Sara Johansen(斯坦福大学数字心理健康诊所创始人)、David Mohr(西北大学行为干预技术中心主任)和Andrew K. Przybylski(人类行为与技术教授)。

此外,还有公共卫生专家Robert K. Ross,OpenAI此前曾聘请他担任非营利委员会顾问。

专家委员会的首次会议与关注重点

OpenAI确认,专家委员会迄今为止只召开过一次会议,目的是向致力于升级ChatGPT和Sora的团队介绍这些顾问。未来,委员会将定期召开会议,探索可能需要添加护栏的敏感话题。然而,最初OpenAI似乎更感兴趣于讨论如果调整工具使其更有帮助,可能实现的心理健康益处。

OpenAI表示:"委员会还将帮助我们思考ChatGPT如何对人们的生活产生积极影响并促进他们的福祉。我们的一些初步讨论集中在什么是福祉,以及ChatGPT如何帮助人们在生活的各个方面导航。"

值得注意的是,Przybylski在2023年共同发表了一项研究,提供数据反驳互联网接入普遍对心理健康产生负面影响。他告诉Mashable,他的研究提供了关于"互联网接入本身是否与更糟糕的情绪和心理体验相关联的问题的迄今为止最好的证据",并可能为持续提供现实检查。他可能帮助OpenAI探索数据是否支持AI构成心理健康风险的观点,这些观点目前正在国会引发聊天机器人心理健康恐慌。

专家对AI心理健康风险的不同观点

委员会专家对AI聊天机器人在心理健康领域的角色持有不同观点,这反映了该领域的复杂性和争议性。

乐观态度

Johansen对陪伴机器人特别乐观。今年早些时候,她在LinkedIn上发帖建议,像OpenAI这样的公司应将"社交媒体对青少年心理健康影响的见解应用于AI陪伴等新兴技术",并得出结论:"AI有很大潜力增强心理健康支持,同时也带来了关于隐私、信任和质量的新的挑战。"

De Choudhury也对AI心理健康的潜在益处持乐观态度。今年4月,她告诉《纽约时报》,即使陪伴机器人不能提供与真实关系相同的益处,AI治疗师仍然可能有价值。

"人类联系是宝贵的,"De Choudhury说。"但当人们没有这种联系时,如果他们能够与机器建立拟社会联系,这比完全没有联系要好。"

谨慎态度

然而,其他专家对陪伴机器人持批评态度。OpenAI指出,Mohr专门研究"技术如何帮助预防和治疗抑郁症"。

Mohr历来倡导使用更多数字工具支持心理健康,2017年曾表示应用程序可以帮助支持无法到达诊所的人。然而,最近在2024年,他对《华尔街日报》表示,他对AI聊天机器人伪装成治疗师有担忧。

"我认为我们还没有达到会有一个AI像治疗师一样行动的地步,"Mohr说。"它仍然有太多可能出错的方式。"

同样,尽管Dennis-Tiwary上月告诉Wired,在大多数不是"临床"的情况下,她认为"AI精神病"这一术语"非常没有帮助",但她曾警告说:"最重要的是,AI必须支持人类福祉、社会联系的基础。"

缺少自杀预防专家的争议

尽管专家委员会涵盖了多个相关领域的专业知识,但缺少自杀预防专家的决定引发了争议。

上个月,数十名自杀预防专家曾敦促OpenAI咨询那些对"数十年的研究和生活经验"在"自杀预防中什么有效"方面有深入了解的专家。然而,这个新成立的委员会中似乎没有这样的专家。

在去年的一次播客中,当被问及最早报告的与聊天机器人相关的青少年自杀事件时,Cerioli表示,儿童大脑发展是她最"热衷"的领域。她说看到这一消息并不令她惊讶,并指出她的研究重点较少在于弄清楚"为什么会发生这种情况",而更多地在于为什么可能发生,因为青少年"准备"寻求"人类联系"。

她指出,在现实生活中,一个困扰的青少年向朋友透露自杀念头,更可能导致成年人介入,而聊天机器人则需要内置特定的保障措施,以确保通知家长。

这似乎与OpenAI添加家长控制的步骤一致,咨询专家设计"青少年可能处于困境时通知家长的语言",公司的新闻稿说。然而,在家长资源页面上,OpenAI确认,如果青少年在表达"自伤意图"后与现实世界资源联系,家长不会总是收到通知,这可能让一些认为家长控制措施不够严格的批评者感到担忧。

OpenAI的现有安全措施与未来方向

面对日益增长的安全关切,OpenAI已经实施了一系列措施,但专家认为仍有改进空间。

家长控制措施

OpenAI已经实施了家长控制功能,但正如文章所述,这些措施并不完美。家长不会总是被通知青少年可能处于危险之中,这引发了一些批评者的担忧。

安全护栏的持续开发

专家委员会的成立表明OpenAI正在寻求外部专业知识来改进其安全护栏。特别是,像De Choudhury这样的专家可以帮助开发更好的机制来识别危险信号并通知家长。

平衡创新与安全

OpenAI面临的挑战是如何平衡创新与安全。正如Mohr所警告的,AI聊天机器人仍然有"太多可能出错的方式",但同时,像Johansen和De Choudhury这样的专家看到了AI在心理健康支持方面的潜力。

AI与青少年心理健康:复杂的关系

AI与青少年心理健康之间的关系是复杂的,涉及多个层面。

拟社会关系的形成

正如Bickham所指出的,小孩子从角色那里学习,形成拟社会关系。AI聊天机器人可能成为这种关系的下一个前沿领域,但这也引发了一些问题:孩子如何与这些AI建立关系?这看起来像什么?这可能会如何影响AI教学的能力?

大脑发育的影响

Cerioli的警告值得深思:如果孩子最早的社会互动是与永远迁就的实体进行的,特别是在神经回路高度可塑的年龄,这可能对他们的认知和情感发展产生深远影响。

自杀风险的识别与预防

自杀风险的识别是AI聊天机器人面临的最敏感问题之一。虽然De Choudhury的研究表明,现有的聊天机器人只能检测到约一半的自杀行为,但这一领域正在迅速发展。未来的AI系统可能会更准确地识别危险信号,但这也引发了关于隐私和干预的伦理问题。

行业影响与未来展望

OpenAI的专家委员会成立可能对整个AI行业产生深远影响。

行业标准的形成

随着AI系统变得越来越复杂,制定关于心理健康和安全的行业标准变得越来越重要。OpenAI的举措可能为其他公司树立先例。

监管与自我监管的平衡

随着AI技术的快速发展,监管机构正在努力跟上步伐。OpenAI的专家委员会可能被视为一种自我监管的努力,旨在展示公司对安全和伦理的承诺。

技术与人文的融合

最终,AI与心理健康的关系反映了技术与人文的融合。正如Dennis-Tiwary所强调的,AI必须支持人类福祉和社会联系的基础。这意味着技术开发者需要更多地考虑人类需求,而不仅仅是技术可能性。

结论:寻找平衡点

OpenAI的健康与AI专家委员会代表了公司对AI心理健康风险的认识和应对努力。然而,委员会中缺少自杀预防专家的决定引发了关于OpenAI优先事项的疑问。

随着AI技术的不断发展,找到创新与安全、便利与保护、技术与人文之间的平衡点将变得越来越重要。专家委员会的成立是一个积极的步骤,但还需要更多的努力来确保AI系统真正促进用户的心理健康,而不是带来新的风险。

未来,我们可能会看到更多关于AI与心理健康的研究,更完善的监管框架,以及更负责任的技术开发实践。只有通过多方合作,我们才能确保AI技术真正造福人类,特别是在心理健康这一敏感而重要的领域。