AI健康顾问团:OpenAI如何重塑ChatGPT的心理安全防线

1

在ChatGPT被指控成为青少年"自杀教练"的诉讼案发生后,OpenAI一直在努力使其聊天机器人更加安全。如今,这家AI公司公布了帮助ChatGPT成为对所有用户更健康选择的专家团队。

专家顾问团的成立背景

OpenAI在新闻稿中解释,其AI与健康专家顾问团(Expert Council on Wellness and AI)的组建始于今年年初OpenAI就家长控制功能非正式咨询专家的时期。如今这一顾问团已正式成立,汇集了八位"拥有数十年研究经验、专注于研究技术如何影响我们的情绪、动机和心理健康的领先研究人员和专家",以帮助指导ChatGPT的更新方向。

AI心理健康顾问团

OpenAI表示,优先考虑寻找"几位具有如何构建支持健康青少年发展技术背景的顾问团成员",因为"青少年使用ChatGPT的方式与成年人不同"。

顾问团成员的专业背景

儿童发展专家的加入

这一努力包括波士顿儿童医院的研究主管David Bickham,他一直密切关注社交媒体对儿童心理健康的影响,以及名为Everyone.AI的非营利组织首席科学官Mathilde Cerioli。Cerioli研究儿童使用AI的机会与风险,特别关注"AI如何与儿童认知和情感发展交叉"。

这些专家似乎可以帮助OpenAI更好地理解安全措施如何在长时间对话中失效,确保儿童不会特别容易受到所谓的"AI精神病"的影响——这种现象是指较长时间的聊天会触发心理健康问题。

儿童与AI关系的研究

在1月,Bickham在美国心理学会关于教育中AI的一篇文章中指出,"小孩子已经从角色中学习"——就像他们观看《芝麻街》一样,并与这些角色形成"准社会关系"。Bickham建议,AI聊天机器人可能是下一个前沿领域,如果我们更多地了解孩子与聊天机器人建立联系的方式,它们可能会填补教学角色。

"孩子们如何与这些AI建立关系,那是什么样子,以及这可能如何影响AI教学的能力?"Bickham提出了这个问题。

AI对儿童大脑的潜在影响

Cerioli密切监控AI在儿童世界中的影响。《世界报》报道,她上月表示,从小使用AI的儿童可能面临大脑被"重写"而"变得无法处理矛盾"的风险,特别是"如果他们最早的社会互动发生在神经回路高度可塑的年龄,并且是与永远迁就的实体进行的"。

"儿童不是小大人,"Cerioli说,"他们的大脑非常不同,AI的影响也非常不同。"

自杀预防专家的缺席引发争议

值得注意的是,这两位专家都没有专注于儿童自杀预防。这可能会让数十位自杀预防专家感到失望,他们上月曾推动OpenAI咨询那些对"数十年的研究和亲身经历"所展示的"自杀预防中什么有效"有深入了解的专家。

OpenAI的自杀风险专家

在去年的一次播客中,当被问及最早报道的与聊天机器人相关的青少年自杀事件时,Cerioli表示,儿童大脑发展是她最"热衷"的领域。她说看到这一消息并不令她惊讶,并指出她的研究较少关注弄清楚"为什么会发生",而更多关注为什么可能发生,因为儿童"倾向于"寻求"人类连接"。

她指出,在现实世界中,一个困扰的青少年向朋友透露自杀念头,更有可能导致成年人介入,而聊天机器人则需要内置特定的安全措施,确保通知父母。

这似乎与OpenAI采取的添加家长控制措施的步骤一致,公司新闻稿称,这些措施是咨询专家后设计的,用于"当青少年可能处于困境时给家长的通知语言"。然而,在面向家长的资源页面上,OpenAI已确认,如果青少年在表达"自残意图"后被链接到现实世界资源,家长不会总是收到通知,这可能让一些批评者感到担忧,他们认为家长控制措施做得不够。

技术识别危险信号的能力

虽然OpenAI在新闻稿中没有明确说明,但佐治亚理工学院交互计算教授Munmun De Choudhury似乎可以帮助ChatGPT进化,以识别儿童何时处于危险并通知父母。

OpenAI指出,De Choudhury研究计算方法,以改善"在线技术在塑造和改善心理健康方面的作用"。

2023年,她进行了一项研究,探讨了大型语言模型在数字心理健康中的益处和危害。该研究部分得到了美国自杀预防基金会资助的资助,并指出当时提供治疗服务的聊天机器人只能检测到大约一半的"自杀行为"。她报告说,这项任务对学者来说似乎是"不可预测"和"随机的"。

似乎OpenAI希望儿童专家可以提供关于ChatGPT如何影响儿童大脑的反馈,同时De Choudhury帮助改进通知父母有关令人不安的聊天会话的努力。

最近,De Choudhury似乎对AI心理健康的潜在益处持乐观态度,告诉《纽约时报》称,即使陪伴机器人不能提供与真实关系相同的好处,AI治疗师仍然可以有价值。

"人类连接是有价值的,"De Choudhury说,"但当人们没有这种连接时,如果他们能够与机器形成准社会关系,那比完全没有连接要好。"

首次会议聚焦AI益处

顾问团的其他大多数专家都有与De Choudhury类似的背景,探索心理健康与技术的交叉领域。他们包括Tracy Dennis-Tiwary(心理学教授和Arcade Therapeutics联合创始人)、Sara Johansen(斯坦福大学数字心理健康诊所创始人)、David Mohr(西北大学行为干预技术中心主任)和Andrew K. Przybylski(人类行为与技术教授)。

还有公共卫生专家Robert K. Ross,OpenAI此前曾聘请他担任非营利委员会顾问。

OpenAI确认迄今为止已经举行过一次会议,目的是向致力于升级ChatGPT和Sora的团队介绍这些顾问。向前推进,顾问团将举行定期会议,探索可能需要添加护栏的敏感话题。然而,最初OpenAI似乎更感兴趣于讨论如果工具调整得更有用,可能实现的心理健康潜在益处。

"顾问团还将帮助我们思考ChatGPT如何对人们的生活产生积极影响并促进他们的福祉,"OpenAI表示,"我们的一些初步讨论集中在什么构成福祉,以及ChatGPT可能如何帮助人们应对生活的各个方面。"

乐观与谨慎的声音

值得注意的是,Przybylski在2023年共同撰写了一项研究,提供了数据反驳互联网的广泛获取对心理健康有负面影响。他告诉Mashable说,他的研究提供了迄今为止关于"互联网访问本身是否与更糟糕的情绪和心理体验相关联"这一问题的"最佳证据",并可能为持续进行的辩论提供现实检验。他可能帮助OpenAI探索数据是否支持AI构成心理健康风险的观点,这些观点目前正在激起国会聊天机器人心理健康恐慌

同样对陪伴机器人持乐观态度的是Johansen。今年早些时候,她在LinkedIn帖子中建议,像OpenAI这样的公司应该将"社交媒体对青少年心理健康影响的见解应用于AI陪伴等新兴技术",得出结论"AI有很大潜力增强心理健康支持,同时也带来了围绕隐私、信任和质量的新挑战"。

对AI陪伴的担忧

顾问团的其他专家则对陪伴机器人持批评态度。OpenAI指出,Mohr专门"研究技术如何帮助预防和治疗抑郁症"。

历史上,Mohr一直倡导使用更多数字工具支持心理健康,在2017年建议应用程序可以帮助支持那些无法到达诊所的人。

然而,最近Mohr告诉《华尔街日报》称,他对AI聊天机器人冒充治疗师有担忧。

"我认为我们还远未达到会有一个AI像治疗师一样行动的程度,"Mohr说,"它仍然有太多可能出错的途径。"

同样,尽管Dennis-Tiwary告诉《连线》杂志称她发现"AI精神病"一词在大多数非"临床"情况下"非常无帮助",但她警告说"最重要的是,AI必须支持人类福祉、社会连接的基础"。

"虽然承认社交AI对神经多样性个体可能有潜在应用,但儿童和其他弱势群体使用这种高度不可靠和不准确技术存在巨大的伦理关切,"Dennis-Tiwary去年写道。

顾问团对OpenAI的战略意义

对于OpenAI来说,随着ChatGPT和Sora继续受到严格审查,这个健康顾问团可能帮助公司实现转型。该公司还确认,将继续咨询"全球医生网络、政策制定者等,因为我们构建先进的AI系统的方式支持人们的福祉"。

结论:AI与心理健康的平衡之道

OpenAI的专家顾问团代表了科技巨头在应对AI心理健康挑战时的一种策略——通过汇集多领域专家来指导产品发展。然而,自杀预防专家的缺席也引发了关于AI公司是否真正理解最严重风险的疑问。

随着AI技术深入渗透日常生活,特别是对青少年群体,建立有效的安全机制和伦理框架变得至关重要。OpenAI的顾问团或许只是第一步,未来需要更广泛的专家参与,更深入的研究,以及更透明的安全措施,才能真正实现AI与心理健康的和谐共存。

在快速发展的AI领域,安全与创新之间的平衡将持续是行业面临的核心挑战。OpenAI的举措为整个行业提供了一个思考框架:技术发展必须以人为本,特别是对那些最脆弱的用户群体。