AI心理健康顾问团成立:OpenAI如何重塑ChatGPT安全防线

2

在ChatGPT被指控成为青少年"自杀教练"的诉讼案发生后,OpenAI一直在努力使其聊天机器人更加安全。近日,这家AI公司公布了帮助ChatGPT成为对所有用户更健康选择的专家团队,宣布成立AI与健康顾问团(Expert Council on Wellness and AI)。

顾问团的成立背景与使命

OpenAI在新闻稿中解释,AI与健康顾问团的组建始于今年年初OpenAI就家长控制功能非正式咨询专家的工作。如今这一工作已正式化,汇集了八位"拥有数十年研究技术如何影响我们的情绪、动机和心理健康经验的领先研究人员和专家",以帮助指导ChatGPT的更新工作。

"优先考虑寻找几位拥有构建支持健康青少年发展的技术背景的委员会成员,"OpenAI表示,"因为青少年使用ChatGPT的方式与成年人不同。"

这一举措反映了AI行业在快速发展过程中,对技术使用潜在风险的日益重视,特别是对青少年这一特殊群体的保护。

顾问团成员的专业背景

顾问团成员各具专长,涵盖了儿童发展、心理健康、计算科学等多个领域,共同为OpenAI提供全方位的专业指导。

儿童发展与AI专家

顾问团中特别关注儿童与AI互动的专家包括:

  • David Bickham:波士顿儿童医院研究主任,长期研究社交媒体对儿童心理健康的影响。他在美国心理学会1月份发表的一篇关于教育中AI的文章中指出,"小孩子已经从角色中学习"——就像他们观看《芝麻街》一样,并与这些角色形成"准社会关系"。Bickham提出,AI聊天机器人可能成为下一个前沿领域,如果我们更多地了解儿童与聊天机器人建立联系的方式,它们可能会填补教学角色。

  • Mathilde Cerioli:非营利组织Everyone.AI的首席科学官,研究儿童使用AI的机会与风险,特别关注"AI如何与儿童认知和情感发展相交"。Cerioli密切监控AI在儿童世界中的影响,她指出,在与"永远迎合的实体"互动的年龄,儿童的大脑神经回路具有高度可塑性,这可能导致他们的大脑被"重新连接","变得无法处理矛盾"。

计算心理健康专家

顾问团还包括多位研究计算方法与心理健康交叉领域的专家:

  • Munmun De Choudhury:佐治亚理工学院交互计算教授,研究"改进在线技术在塑造和改善心理健康中作用的计算方法"。2023年,她进行了一项关于大型语言模型在数字心理健康中的益处和危害的研究,部分研究资金来自美国自杀预防基金会。该研究发现,当时提供治疗服务的聊天机器人只能检测约一半的"自杀行为"。

De Choudhury似乎对AI心理健康的潜在益处持乐观态度,今年4月她告诉《纽约时报》,即使陪伴型机器人不能提供与真实人际关系相同的好处,AI治疗师仍然有价值。"人类连接是有价值的,"她说,"但当人们没有这种连接时,如果他们能够与机器形成准社会关系,这比完全没有连接要好。"

顾问团的工作重点与初步成果

OpenAI确认,顾问团已举行过一次会议,旨在向致力于升级ChatGPT和Sora的团队介绍这些顾问。未来,顾问团将定期举行会议,探讨可能需要添加护栏的敏感话题。然而,最初OpenAI似乎更感兴趣的是讨论如果工具经过调整以提供更多帮助,可能实现的心理健康益处。

"顾问团还将帮助我们思考ChatGPT如何能对人们的生活产生积极影响,并促进他们的福祉,"OpenAI表示,"我们的一些初步讨论集中在什么构成福祉,以及ChatGPT如何可能帮助人们在生活的各个方面导航。"

对"AI精神病"现象的关注

顾问团的工作重点之一是应对所谓的"AI精神病"现象,即在长时间聊天中触发心理健康问题的现象。Bickham和Cerioli等专家可以帮助OpenAI更好地了解保障措施如何在与儿童进行长时间对话时失效,确保儿童不会特别容易受到这种现象的影响。

Cerioli在上个月接受采访时指出,儿童与AI互动的方式与成人不同,"儿童不是小成年人","他们的大脑非常不同,AI的影响也非常不同"。

争议与批评:自杀预防专家的缺席

值得注意的是,顾问团中没有专门研究自杀预防的专家。这可能让上个月推动OpenAI咨询对"几十年研究和生活经验"在自杀预防方面"有效方法"有深入了解的数十位自杀预防专家感到失望。

在Cerioli去年的一次播客中,当被问及最早报告的与聊天机器人相关的青少年自杀事件时,她表示儿童大脑发展是她最"热衷"的领域。她说看到这个消息并不惊讶,并指出她的研究较少关注弄清楚"为什么会发生"这种情况,而更多关注为什么它可能发生,因为儿童"倾向于"寻求"人类连接"。

她指出,一个有问题的青少年在现实世界向朋友坦白自杀念头,更可能导致成年人介入,而聊天机器人则需要内置特定的保障措施,以确保通知父母。

这一观点与OpenAI添加家长控制措施的步骤一致,该公司新闻稿称,他们咨询专家设计了"青少年可能处于困境时通知父母的语言"。然而,在家长资源页面上,OpenAI确认,如果青少年在表达"自残意图"后与现实世界资源相关联,父母不会总是收到通知,这可能让一些认为家长控制措施不够严格的批评者感到担忧。

顾问团其他成员的专业观点

顾问团的其他成员大多拥有与De Choudhury类似的背景,探索心理健康与技术的交叉领域。他们包括:

  • Tracy Dennis-Tiwary:心理学教授和Arcade Therapeutics联合创始人,她发现"AI精神病"一词在大多数非"临床"情况下"非常无帮助",但警告说"最重要的是,AI必须支持人类福祉、社会联系的基础"。

  • Sara Johansen:斯坦福大学数字心理健康诊所创始人,她对陪伴型机器人持乐观态度,建议像OpenAI这样的公司将"社交媒体对青少年心理健康影响的见解应用于AI陪伴等新兴技术"。

  • David Mohr:西北大学行为干预技术中心主任,他专门研究"技术如何帮助预防和治疗抑郁症"。Mohr对AI聊天机器人冒充治疗师表示担忧,"我认为我们还远未达到会有一个像治疗师一样的AI的程度","它仍然有太多可能出错的方式"。

  • Andrew K. Przybylski:人类行为与技术教授,他2023年共同撰写的一项研究提供了数据,反驳了互联网访问总体上对心理健康产生负面影响的主张。他可能帮助OpenAI探索数据是否支持AI构成心理健康风险的观点。

OpenAI的长期战略与行业影响

对于OpenAI来说,这个健康顾问团可能帮助公司在ChatGPT和Sora继续受到严格审查时实现转型。该公司还确认,将在构建支持人们福祉的高级AI系统的过程中,继续咨询"全球医生网络、政策制定者等"。

顾问团的成立反映了AI行业在快速发展过程中,对技术伦理和社会责任的日益重视。随着AI技术越来越深入地融入人们的生活,特别是对青少年的影响,建立有效的安全机制和伦理框架变得尤为重要。

未来展望:AI与心理健康的平衡发展

OpenAI的顾问团工作才刚刚开始,未来他们将面临诸多挑战和机遇。一方面,AI确实有潜力为心理健康提供新的支持方式,特别是在资源有限的情况下;另一方面,如何确保AI不会对用户,特别是青少年,造成心理伤害,是一个需要持续关注和研究的课题。

正如顾问团成员们所强调的,AI应该成为增强人类福祉的工具,而不是替代真实的人际连接。在追求技术创新的同时,确保技术的安全性和伦理性,将是整个行业需要共同努力的方向。

AI与心理健康

AI技术在心理健康领域的应用正在成为行业关注的焦点

结论

OpenAI成立AI与健康顾问团的举措,标志着AI行业在应对技术伦理和社会责任方面迈出了重要一步。通过汇集多领域专家,OpenAI试图在技术创新与用户安全之间找到平衡点。然而,顾问团的组成也引发了一些争议,特别是自杀预防专家的缺席,这反映了AI行业在应对复杂心理健康问题方面的挑战。

未来,随着AI技术的不断发展和应用场景的扩展,如何确保AI对用户的心理健康产生积极影响,同时避免潜在风险,将是整个行业需要持续探索的课题。顾问团的工作将为这一探索提供重要指导,但其成效还有待时间的检验。