OpenAI心理健康委员会:AI安全与青少年保护的专家布局

1

OpenAI近期宣布成立了一个专注于心理健康与AI的专家委员会,旨在提升ChatGPT的安全性和用户体验,特别是在青少年心理健康保护方面。这一举措是在ChatGPT被指控成为青少年"自杀教练"的诉讼之后采取的,反映了OpenAI对AI心理健康风险的高度重视。

该委员会由八位在技术对情绪、动机和心理健康影响方面有数十年经验的专家组成,他们将指导ChatGPT的更新和改进。OpenAI特别强调,委员会中有几位专家专注于理解如何构建支持健康青少年发展的技术,因为青少年使用ChatGPT的方式与成年人截然不同。

AI快讯

委员会成员包括波士顿儿童医院研究主任David Bickham,他一直密切关注社交媒体对儿童心理健康的影响;以及非营利组织Everyone.AI的首席科学官Mathilde Cerioli,她研究儿童使用AI的机会和风险,特别关注"AI如何与儿童认知和情感发展交叉"的问题。

这些专家似乎可以帮助OpenAI更好地了解安全措施如何在长时间对话中对儿童失效,确保儿童不会特别容易受到所谓的"AI精神病"的影响,这种现象是指长时间聊天会引发心理健康问题。

Bickham在今年1月美国心理协会一篇关于AI教育的文章中指出,小孩子已经从角色中学习——就像他们看《芝麻街》一样——并与这些角色形成"准社会关系"。AI聊天机器人可能是下一个前沿领域,如果我们更多地了解孩子与聊天机器人建立联系的方式,它们可能会填补教学角色。

"孩子们如何与这些AI建立关系,这看起来是什么样的,以及这可能会如何影响AI的教学能力?"Bickham提出了这样的问题。

Cerioli则密切关注AI在儿童世界中的影响。她上个月建议,使用AI长大的儿童可能会面临大脑被重新布线而"变得无法处理矛盾"的风险,特别是如果"他们最早的社会互动,在神经回路高度可塑的年龄,是与(无限包容的实体)进行的"。

"儿童不是迷你成人,"Cerioli说,"他们的大脑非常不同,AI的影响也非常不同。"

然而,这两位专家都没有专注于儿童自杀预防工作。这可能会让上个月敦促OpenAI咨询自杀预防专家的数十位专家感到失望,这些专家对"几十年研究和生活经验"所显示的"什么在自杀预防中有效"有着深入的了解。

在去年的一次播客中,Cerioli表示,当被问及最早报道的与聊天机器人相关的青少年自杀事件时,儿童大脑发展是她最"热情"关注的领域。她说,看到这个消息并不让她感到惊讶,并指出她的研究较少关注"为什么会发生",而更多关注为什么可能发生,因为儿童被"设定"为寻求"人类联系"。

她指出,在现实世界中,一个有问题的青少年向朋友透露自杀念头,更可能导致成年人介入,而聊天机器人则需要内置特定的安全措施,以确保通知家长。

这似乎与OpenAI添加家长控制所采取的步骤一致,咨询专家设计"当青少年可能处于困境时,给家长的通知语言",该公司的新闻稿说。然而,在给家长的资源页面上,OpenAI已确认,当青少年表达"自残意图"后被链接到现实世界资源时,家长不会总是收到通知,这可能会让一些批评者感到担忧,他们认为家长控制措施不够到位。

虽然OpenAI在新闻稿中没有明确说明,但佐治亚理工学院互动计算教授Munmun De Choudhury似乎可以帮助改进ChatGPT,以识别儿童何时处于危险中并通知家长。

OpenAI指出,De Choudhury研究计算方法,以改善"在线技术在塑造和改善心理健康方面的作用"。

2023年,她进行了一项关于大型语言模型在数字心理健康中的益处和危害的研究。该研究部分由美国自杀预防基金会资助,并指出,当时提供治疗服务的聊天机器人只能在大约一半的时间内检测到"自杀行为"。她报告说,这项任务对学者来说似乎是"不可预测的"和"随机的"。

OpenAI似乎希望儿童专家能够就ChatGPT如何影响儿童大脑提供反馈,而De Choudhury则帮助改进通知家长有关令人不安的聊天会话的努力。

最近,De Choudhury似乎对AI的心理健康潜在益处持乐观态度,她在4月告诉《纽约时报》,即使伴侣机器人不能提供与真实关系相同的好处,AI治疗师仍然可以有价值。

"人类联系是有价值的,"De Choudhury说,"但当人们没有这种联系时,如果他们能够与机器形成准社会联系,这比没有任何联系要好。"

OpenAI委员会的大多数其他专家都有与De Choudhury相似的背景,探索心理健康和技术的交叉点。他们包括心理学教授兼Arcade Therapeutics联合创始人Tracy Dennis-Tiwary、斯坦福大学数字心理健康诊所创始人Sara Johansen、西北大学行为干预技术中心主任David Mohr,以及人类行为与技术教授Andrew K. Przybylski。

还有公共卫生专家Robert K. Ross,OpenAI此前曾邀请他担任非营利委员会顾问。

OpenAI确认目前只召开了一次会议,旨在向顾问介绍负责升级ChatGPT和Sora的团队。未来,委员会将定期召开会议,探讨可能需要添加护栏的敏感话题。不过,最初,OpenAI似乎更感兴趣的是讨论如果工具被调整为更有帮助,可能实现的心理健康益处。

"委员会还将帮助我们思考ChatGPT如何对人们的生活产生积极影响,并促进他们的福祉,"OpenAI说,"我们的一些初步讨论集中在什么构成福祉,以及ChatGPT如何可能赋予人们在生活各方面的导航能力。"

值得注意的是,Przybylski在2023年合著的一项研究提供了数据,驳斥了互联网接入广泛对心理健康产生负面影响的观点。他告诉Mashable,他的研究提供了迄今为止"关于互联网接入本身是否与更糟糕的情绪和心理体验相关的最佳证据——并可能在这一持续辩论中提供现实检查。"他可能帮助OpenAI探索数据是否支持AI构成心理健康风险的看法,这些看法目前正在国会引发聊天机器人心理健康恐慌。

对伴侣机器人特别持乐观态度的还有Johansen。她在今年早些时候的一篇LinkedIn帖子中建议,像OpenAI这样的公司应该"将对青少年心理健康影响的社交媒体见解应用于AI伴侣等新兴技术",并得出结论认为"AI在增强心理健康支持方面具有巨大潜力,同时也带来了隐私、信任和质量方面的新挑战"。

委员会的其他专家对伴侣机器人持批评态度。OpenAI指出,Mohr特别"研究技术如何帮助预防和治疗抑郁症"。

从历史上看,Mohr一直倡导更多的数字工具来支持心理健康,他在2017年建议应用程序可以帮助支持那些无法到达治疗师办公室的人。

然而,最近,Mohr在2024年告诉《华尔街日报》,他对AI聊天机器人冒充治疗师表示担忧。

"我不认为我们已经达到只需要一个像治疗师一样行事的AI的程度,"Mohr说,"它仍然有太多可能出问题的方式。"

同样,虽然Dennis-Tiwary上个月告诉《Wired》,她发现在大多数不是"临床"的情况下,"AI精神病"这个术语"非常没有帮助",但她去年警告说,"最重要的是,AI必须支持人类福祉的基石——社会联系"。

"虽然承认社交AI对神经多样化个体有潜在的应用,但在儿童和其他弱势群体中使用这种高度不可靠和不准确的技术引起了巨大的伦理担忧,"Dennis-Tiwary去年写道。

对OpenAI来说,随着ChatGPT和Sora继续受到严格审查,健康委员会可能帮助公司实现转折。该公司还确认,它将继续咨询"全球医师网络、政策制定者等,因为我们以支持人们福祉的方式构建先进的AI系统"。