AI心理健康顾问团成立:为何自杀预防专家缺席?

1

在ChatGPT被指控成为青少年"自杀教练"的法律案件引发轩然大波后,OpenAI正急于提升其聊天机器人的安全性。近日,这家AI公司公布了帮助ChatGPT成为对所有用户更健康选择的专家团队。然而,令人意外的是,这个所谓的"AI与健康专家顾问团"并未邀请任何自杀预防领域的专家,这一决定引发了广泛争议和质疑。

顾问团组成:聚焦儿童发展,忽视自杀预防

OpenAI在新闻稿中解释,其"AI与健康专家顾问团"在今年初就家长控制措施进行非正式专家咨询后开始成形。如今这一顾问团已正式成立,汇集了八位"在研究技术如何影响我们的情感、动机和心理健康方面拥有数十年经验的领先研究人员和专家",以帮助指导ChatGPT的更新方向。

OpenAI表示,优先考虑寻找"几位具有如何构建支持健康青少年发展的技术背景的顾问团成员",因为"青少年使用ChatGPT的方式与成年人不同"。

这一努力包括波士顿儿童医院的研究主管David Bickham,他一直密切关注社交媒体对儿童心理健康的影响,以及名为Everyone.AI的非营利组织首席科学官Mathilde Cerioli。Cerioli研究儿童使用AI的机会与风险,特别关注"AI如何与儿童认知和情感发展相交"。

这些专家似乎可以帮助OpenAI更好地了解在长时间对话中安全措施如何失效,确保儿童不会特别容易受到所谓的"AI精神病"现象的影响,这种现象中,更长时间的聊天会触发心理健康问题。

专家观点:AI如何重塑儿童心智

今年1月,Bickham在美国心理学会关于教育中AI的一篇文章中指出,"小孩子已经从角色中学习"——就像他们观看《芝麻街》一样,并与这些角色形成"准社会关系"。Bickham建议,AI聊天机器人可能是下一个前沿领域,如果我们更多地了解孩子与聊天机器人建立联系的方式,它们可能会填补教学角色。

"孩子们如何与这些AI建立关系,这看起来像什么,以及这可能如何影响AI教学的能力?"Bickham提出了疑问。

Cerioli密切监控AI在儿童世界中的影响。据《世界报》报道,她上月指出,使用AI长大的儿童可能面临大脑被"重塑"而"无法处理矛盾"的风险,特别是"如果他们最早的社会互动发生在神经回路高度可塑的年龄,是与无限迁就的实体进行的"。

"儿童不是缩小版的成年人,"Cerioli说。"他们的大脑非常不同,AI的影响也非常不同。"

然而,这两位专家都没有专注于儿童的自杀预防。这可能令数十位自杀预防专家失望,他们上月曾敦促OpenAI咨询那些对"几十年的研究和亲身经历"在自杀预防方面"什么有效"有深入了解的专家。

安全措施改进:家长通知机制的争议

在去年的一次播客中,当被问及最早报告的与聊天机器人相关的青少年自杀事件时,Cerioli表示儿童大脑发展是她最"热衷"的领域。她说看到这一消息并不令她惊讶,并指出她的研究较少关注找出"为什么会发生",而更多关注为什么它可能发生,因为儿童"倾向于"寻求"人类连接"。

她指出,在现实世界中,一个困扰的青少年向朋友透露自杀意念,更可能导致成年人介入,而聊天机器人则需要内置特定的安全措施,以确保通知父母。

这似乎与OpenAI采取的添加家长控制措施的步骤一致,该公司新闻稿称,公司咨询了专家来设计"当青少年可能处于困境时给家长的通知语言"。然而,在给家长的资源页面上,OpenAI已确认,如果青少年在表达"自残意图"后被链接到现实世界的资源,家长不会总是收到通知,这可能令一些认为家长控制措施不够充分的批评者感到担忧。

尽管OpenAI在新闻稿中没有明确说明,但佐治亚理工学院交互计算教授Munmun De Choudhury似乎可以帮助ChatGPT进化,以识别儿童何时处于危险状态并通知家长。

De Choudhury研究计算方法,以改善"在线技术在塑造和改善心理健康方面的作用",OpenAI指出。

2023年,她进行了关于大型语言模型在数字心理健康中的益处和危害的研究。该研究部分得到了美国自杀预防基金会资助的资助,并指出当时提供治疗服务的聊天机器人只能检测约一半的"自杀行为"。她报告说,这项任务对学者来说似乎是"不可预测"和"随机的"。

似乎OpenAI希望儿童专家可以提供关于ChatGPT如何影响儿童大脑的反馈,同时De Choudhury帮助改进通知家长有关令人不安的聊天会话的努力。

首次会议聚焦:AI的积极心理健康潜力

OpenAI顾问团的其他大多数专家都有与De Choudhury类似的背景,探索心理健康与技术的交叉领域。他们包括Tracy Dennis-Tiwary(心理学教授和Arcade Therapeutics联合创始人)、Sara Johansen(斯坦福大学数字心理健康诊所创始人)、David Mohr(西北大学行为干预技术中心主任)和Andrew K. Przybylski(人类行为与技术教授)。

还有公共健康专家Robert K. Ross,OpenAI此前曾聘请他担任非营利委员会顾问。

OpenAI确认目前只举行过一次会议,旨在向致力于升级ChatGPT和Sora的团队介绍这些顾问。向前看,该顾问团将举行定期会议,探讨可能需要添加护栏的敏感话题。然而,最初,OpenAI似乎更感兴趣于讨论如果工具经过调整以更有帮助,可能实现的心理健康积极效益。

"该顾问团还将帮助我们思考ChatGPT如何对人们的生活产生积极影响并促进他们的福祉,"OpenAI表示。"我们的一些初步讨论集中在什么是福祉,以及ChatGPT可能如何帮助人们应对生活的各个方面。"

值得注意的是,Przybylski在2023年共同撰写了一项研究,提供数据反驳互联网访问普遍对心理健康产生负面影响。他告诉Mashable,他的研究提供了"迄今为止关于互联网访问本身是否与更糟糕的情绪和心理体验相关联这一问题的最佳证据",并可能在关于这一问题的持续辩论中提供"现实检查"。他可能帮助OpenAI探索数据是否支持AI构成心理健康风险的观点,这些观点目前正在国会引发聊天机器人心理健康恐慌。

同样,对陪伴机器人持乐观态度的还有Johansen。今年早些时候,她在LinkedIn上发帖,建议像OpenAI这样的公司应用"社交媒体对青少年心理健康影响的见解来应对AI陪伴等新兴技术",得出结论"AI有很大潜力增强心理健康支持,同时也提出了围绕隐私、信任和质量的新的挑战"。

争议声音:AI陪伴机器人的风险与局限

顾问团的其他专家对陪伴机器人持批评态度。OpenAI指出,Mohr专门"研究技术如何帮助预防和治疗抑郁症"。

历史上,Mohr一直倡导更多数字工具支持心理健康,在2017年提出应用程序可以帮助支持那些无法到达诊所的人。

然而,Mohr在2024年告诉《华尔街日报》时,他对AI聊天机器人伪装成治疗师表示担忧。

"我认为我们还远未达到会有一个AI像治疗师一样行动的程度,"Mohr说。"它仍然有太多可能出错的方式。"

同样,尽管Dennis-Tiwary上月告诉Wired,她发现"AI精神病"一词在大多数非"临床"情况下"非常没有帮助",但她去年警告说"最重要的是,AI必须支持人类福祉、社会联系的基石"。

"虽然承认社交AI对神经多样性个体可能有潜在的应用,但在儿童和其他弱势群体中使用这种高度不可靠和不准确的技术带来了巨大的伦理问题,"Dennis-Tiwary写道。

未来展望:AI健康监管的平衡之道

对于OpenAI来说,这个健康顾问团可能帮助公司在ChatGPT和Sora继续受到严格审查时实现转变。该公司还确认,将继续咨询"全球医师网络、政策制定者等,以支持人们福祉的方式构建先进的AI系统"。

AI心理健康研究

随着AI技术的快速发展,如何平衡创新与安全已成为科技行业面临的核心挑战。OpenAI的顾问团组建方式反映了行业在应对AI心理健康风险时的谨慎态度,但也暴露出在特定领域专业知识覆盖上的不足。

未来,随着AI系统越来越深入地融入人们的生活,特别是对青少年群体的影响,建立更加全面、多元的专家咨询机制将成为必要。这不仅是企业社会责任的体现,也是确保AI技术健康发展的关键保障。

在AI与人类心理健康这一复杂领域,没有简单的答案。只有通过持续的研究、开放的讨论和负责任的创新,我们才能确保AI真正成为促进人类福祉的工具,而非潜在的风险源。