AI心理健康顾问团成立:自杀预防专家缺席引发争议

1

在ChatGPT被指控成为青少年'自杀教练'的诉讼发生后,OpenAI正努力提升其聊天机器人的安全性。近日,这家AI公司公布了聘请的专家名单,这些专家将帮助ChatGPT成为对所有用户都更健康的选择。

顾问团的成立背景

OpenAI在新闻稿中解释,其AI健康与专家顾问团的组建始于今年年初公司就家长控制功能与专家的非正式咨询。如今这一顾问团已正式成立,汇集了八位'在研究技术如何影响我们的情感、动机和心理健康方面拥有数十年经验的领先研究人员和专家',以帮助指导ChatGPT的更新。

AI心理健康专家讨论

OpenAI表示,优先考虑的是'找到几位具有理解如何支持健康青少年发展的技术背景的顾问团成员',因为'青少年使用ChatGPT的方式与成年人不同'。

顾问团成员的专业背景

这一努力包括波士顿儿童医院的研究主管David Bickham,他一直密切关注社交媒体对儿童心理健康的影响,以及名为Everyone.AI的非营利组织首席科学官Mathilde Cerioli。Cerioli研究儿童使用AI的机会与风险,特别关注'AI如何与儿童认知和情感发展相交'。

这些专家似乎能帮助OpenAI更好地理解在长时间对话中安全措施如何失效,确保儿童不会特别容易受到所谓的'AI精神病'现象的影响,这种现象是指较长时间的聊天会触发心理健康问题。

儿童与AI的关系研究

今年1月,Bickham在美国心理学会关于教育中AI的一篇文章中指出,'小孩子已经从角色中学习'——就像他们观看《芝麻街》一样,并与这些角色形成'准社会关系'。Bickham建议,AI聊天机器人可能是下一个前沿领域,如果我们更多地了解儿童与聊天机器人建立联系的方式,它们可能会填补教学角色。

'孩子们如何与这些AI建立关系,这看起来是什么样子,以及这可能如何影响AI教学的能力?'Bickham提出了疑问。

Cerioli密切关注AI在儿童世界中的影响。《世界报》报道,她上月表示,从小就使用AI的儿童可能面临大脑被'重写'而'无法处理矛盾'的风险,特别是'如果他们最早的社会互动发生在大脑神经回路高度可塑的时期,而这些互动是与永远迁就的实体进行的'。

'儿童不是小成年人,'Cerioli说,'他们的大脑非常不同,AI的影响也截然不同。'

自杀预防专家的缺席

令人关注的是,这两位专家都不是专注于儿童自杀预防的。这可能让上个月推动OpenAI咨询'对几十年的研究和生活经验所显示的自杀预防有效方法有深入了解'的数十位自杀预防专家感到失望。

对自杀风险的回应

在去年的一次播客中,当被问及最早报告的与聊天机器人相关的青少年自杀事件时,Cerioli表示儿童大脑发展是她最'热衷'的领域。她说看到这一消息并不令她惊讶,并指出她的研究较少专注于找出'为什么会发生'这种情况,而更多关注于为什么可能发生,因为儿童'天生'寻求'人类连接'。

她指出,在现实世界中,一个有问题的青少年向朋友倾诉自杀想法,更可能让成年人介入,而聊天机器人则需要内置特定的安全措施,确保通知父母。

这似乎与OpenAI采取的添加家长控制措施的步骤一致,该公司新闻稿称,公司咨询专家设计了'青少年可能处于困境时通知父母的通知语言'。然而,在面向父母的资源页面上,OpenAI确认,如果青少年在表达'自伤意图'后与现实世界的资源相关联,父母不会总是收到通知,这可能让一些认为家长控制措施不够严格的批评者感到担忧。

技术与安全措施

虽然OpenAI在新闻稿中没有明确说明,但佐治亚理工学院交互计算教授Munmun De Choudhury似乎可以帮助ChatGPT进化,以识别儿童何时处于危险状态并通知父母。

OpenAI指出,De Choudhury研究计算方法,以改善'在线技术在塑造和改善心理健康方面的作用'。

2023年,她进行了一项关于大型语言模型在数字心理健康中的益处和危害的研究。该研究部分得到了美国自杀预防基金会的资助资助,并指出当时提供治疗服务的聊天机器人只能大约一半时间检测到'自杀行为'。她报告说,这一任务对学者来说似乎是'不可预测'和'随机的'。

似乎OpenAI希望儿童专家能提供关于ChatGPT如何影响儿童大脑的反馈,同时De Choudhury帮助改进通知父母有问题的聊天会话的努力。

顾问团首次会议聚焦AI益处

顾问团中其他大多数专家的背景与De Choudhury相似,探索心理健康与技术的交叉领域。他们包括心理学教授和Arcade Therapeutics联合创始人Tracy Dennis-Tiwary、斯坦福大学数字心理健康诊所创始人Sara Johansen、西北大学行为干预技术中心主任David Mohr,以及人类行为与技术教授Andrew K. Przybylski。

还有公共卫生专家Robert K. Ross,OpenAI此前曾聘请他担任非营利委员会顾问。

OpenAI确认迄今为止已经举行过一次会议,目的是向致力于升级ChatGPT和Sora的团队介绍这些顾问。未来,顾问团将举行定期会议,探讨可能需要添加护栏的敏感话题。然而,最初OpenAI似乎更感兴趣于讨论如果工具经过调整以更有用,可能实现的心理健康益处。

'顾问团还将帮助我们思考ChatGPT如何对人们的生活产生积极影响并促进他们的福祉,'OpenAI表示,'我们的一些初步讨论集中在什么是福祉以及ChatGPT如何可能帮助人们在生活的各个方面导航。'

专家观点的多样性

值得注意的是,Przybylski在2023年共同撰写了一项研究,提供数据反驳广泛认为互联网接入对心理健康产生负面影响。他告诉Mashable,他的研究提供了迄今为止关于'互联网接入本身是否与更糟糕的情感和心理体验相关联的问题的最佳证据',并可能为这一持续辩论提供'现实检查'。他可能帮助OpenAI探索数据是否支持AI构成心理健康风险的观点,这些观点目前正在国会引发聊天机器人心理健康恐慌。

同样对陪伴机器人持乐观态度的还有Johansen。今年早些时候,她在LinkedIn上发帖建议像OpenAI这样的公司应用'社交媒体对青少年心理健康影响的见解来应用于AI陪伴等新兴技术',并得出结论:'AI有很大潜力增强心理健康支持,同时也提出了围绕隐私、信任和质量的新的挑战。'

然而,顾问团中的其他专家对陪伴机器人持批评态度。OpenAI指出,Mohr专门研究'技术如何帮助预防和治疗抑郁症'。

历史上,Mohr一直倡导更多数字工具支持心理健康,2017年他建议应用程序可以帮助支持那些无法到达诊所办公室的人。

然而,Mohr在2024年告诉《华尔街日报》,他对AI聊天机器人冒充治疗师表示担忧。

'我认为我们还没有达到会有一个AI像治疗师一样行动的地步,'Mohr说,'它仍然有太多可能出错的方面。'

同样,尽管Dennis-Tiwary上月告诉Wired,在大多数不是'临床'的情况下,她发现'AI精神病'这个术语'非常无益',但她曾警告说,'最重要的是,AI必须支持人类福祉、社会联系的基石。'

Dennis-Tiwary去年写道:'虽然承认社交AI对神经多样性个体可能有富有成效的应用,但在儿童和其他弱势群体中使用这种高度不可靠和不准确的技术存在巨大的伦理问题。'

结论:AI健康发展的平衡之道

对于OpenAI来说,这个健康顾问团可能帮助公司在ChatGPT和Sora继续受到严格审查时实现转变。该公司还确认将继续咨询'全球医师网络、政策制定者等,同时我们构建支持人们福祉的先进AI系统'。

AI与儿童心理健康

随着AI技术的快速发展,如何平衡创新与安全、技术发展与心理健康保护,成为整个行业必须面对的挑战。OpenAI的顾问团或许是朝着正确方向迈出的一步,但要真正解决AI对青少年心理健康的影响,还需要更多元化的专业视角和更全面的安全措施。