AI健康顾问团揭秘:ChatGPT心理安全升级背后的专家阵容

1

在ChatGPT被指控成为青少年"自杀教练"的诉讼案后,OpenAI一直致力于提升其聊天机器人的安全性。近日,这家AI公司公布了为帮助ChatGPT成为对所有用户更健康选择而聘请的专家团队。这一举措标志着OpenAI在应对AI心理健康风险方面的最新努力。

顾问团的成立背景与使命

OpenAI在新闻稿中解释,AI健康与福祉专家委员会(Expert Council on Wellness and AI)的组建始于今年初公司就家长控制问题非正式咨询专家之时。如今,这一委员会已正式成立,汇集了八位"拥有数十年经验研究技术如何影响我们的情绪、动机和心理健康的研究人员和专家",以指导ChatGPT的更新工作。

OpenAI表示,其中一个重点是寻找"几位具有了解如何支持健康青少年发展的技术背景的委员会成员",因为"青少年使用ChatGPT的方式与成年人不同"。

这一委员会的成立,反映了OpenAI在面临公众对其AI产品潜在心理风险担忧时的应对策略。特别是在2025年一起青少年自杀诉讼案后,公司面临着巨大的监管和舆论压力。

委员会成员的专业背景

委员会成员代表了心理健康与技术交叉领域的多元视角,每位专家都带来了独特的专业知识和经验。

儿童发展与AI研究专家

David Bickham,波士顿儿童医院研究主任,一直密切关注社交媒体对儿童心理健康的影响。他的加入表明OpenAI重视青少年用户群体的特殊需求。

Mathilde Cerioli,非营利组织Everyone.AI的首席科学官,研究儿童使用AI的机会与风险,尤其关注"AI如何与儿童认知和情感发展交叉"。

Cerioli最近在接受《世界报》采访时警告,成长过程中使用AI的儿童可能面临大脑被"重塑"为"无法处理矛盾"的风险,特别是"如果他们在神经回路高度可塑的年龄,最早的社会互动是与永远迁就的实体进行的"。

她强调:"儿童不是缩小版的成人。他们的大脑非常不同,AI的影响也截然不同。"

心理健康技术与计算专家

Munmun De Choudhury,佐治亚理工学院交互计算教授,研究计算方法以改善"在线技术在塑造和改善心理健康方面的作用"。她的加入可能有助于ChatGPT识别儿童处于危险状态的情况并通知家长。

在2023年的一项研究中,她探讨了大型语言模型在数字心理健康中的益处和危害。该研究部分由美国自杀预防基金会资助,指出当时提供治疗服务的聊天机器人只能检测出约一半的"自杀行为"。

De Choudhury对AI的心理健康潜力持乐观态度,今年4月她告诉《纽约时报》:"人类连接是有价值的。但当人们没有这种连接时,如果他们能够与机器形成准社会关系,这比完全没有连接要好。"

其他委员会成员

委员会还包括多位心理健康与技术交叉领域的专家:

  • Tracy Dennis-Tiwary,心理学教授,Arcade Therapeutics联合创始人
  • Sara Johansen,斯坦福大学数字心理健康诊所创始人
  • David Mohr,西北大学行为干预技术中心主任
  • Andrew K. Przybylski,人类行为与技术教授
  • Robert K. Ross,公共卫生专家,此前曾担任OpenAI非营利委员会顾问

顾问团的工作重点与首次会议

OpenAI确认,委员会已举行过一次会议,目的是向负责升级ChatGPT和Sora的团队介绍顾问们。未来,委员会将举行定期会议,探讨可能需要增加护栏的敏感话题。

然而,OpenAI似乎更感兴趣的是讨论如果工具经过调整以更具帮助性,可能实现的心理健康益处。

"委员会还将帮助我们思考ChatGPT如何能对人们的生活产生积极影响并促进他们的福祉,"OpenAI表示。"我们的一些初步讨论集中在什么构成福祉,以及ChatGPT如何帮助人们在生活的各个方面导航。"

专家观点的多样性

委员会成员对AI与心理健康关系的看法存在显著差异,反映了这一领域的复杂性。

乐观观点

Przybylski在2023年共同撰写的一项研究提供了数据,反驳了互联网访问普遍对心理健康产生负面影响的理论。他告诉Mashable,他的研究提供了"迄今为止关于互联网访问本身是否与更差的情绪和心理体验相关联这个问题的最佳证据"。

AI与心理健康研究

Johansen今年早些时候在LinkedIn上发文,建议像OpenAI这样的公司将"社交媒体对青少年心理健康影响的见解应用于AI伴侣等新兴技术",并得出结论:"AI在增强心理健康支持方面有很大潜力,同时也带来了关于隐私、信任和质量的新挑战。"

谨慎观点

相比之下,Mohr对AI聊天机器人扮演治疗师角色持谨慎态度。2024年,他告诉《华尔街日报》:"我认为我们还远未达到会有一个AI像治疗师一样行动的程度。它仍然有太多可能出错的方式。"

Dennis-Tiwary虽然认为大多数非临床情况下"AI精神病"这一术语"非常没有帮助",但她警告说:"最重要的是,AI必须支持人类福祉的基础——社会连接。"

她去年写道:"虽然承认社交AI对神经多样性个体可能有富有成效的应用,但在儿童和其他弱势群体中使用这种高度不可靠和不准确的技术,存在巨大的伦理问题。"

争议与批评

尽管顾问团的成立代表了OpenAI在AI安全方面的重要举措,但一些批评声音指出,委员会未能包含自杀预防领域的专家。

这可能会让数十名自杀预防专家感到失望,他们上个月曾敦促OpenAI咨询那些对"数十年的研究和亲身经历"显示的"自杀预防中什么有效"有深入了解的专家。

AI安全与心理健康

值得注意的是,虽然Cerioli在去年的一次播客中被问及最早报道的与聊天机器人相关的青少年自杀事件时,表示儿童大脑发展是她最"热情"的领域,但她明确表示她的研究重点较少在于弄清"为什么会发生"这种情况,而更多在于为什么它可能发生,因为儿童"倾向于"寻求"人类连接"。

她指出,在现实世界中,一个困扰的青少年向朋友透露自杀念头,更有可能导致成年人介入,而聊天机器人则需要内置特定的保障措施,以确保通知家长。

家长控制措施的局限性

OpenAI在新闻稿中表示,他们采取的措施与专家合作设计"当青少年可能处于困境时通知家长的通知语言"是一致的。

然而,在家长资源页面上,OpenAI确认,如果青少年在表达"自残意图"后被链接到现实世界的资源,家长不会总是收到通知,这可能让一些认为家长控制措施不够充分的批评者感到担忧。

顾问团对OpenAI的意义

对于OpenAI来说,这个健康顾问团可能帮助公司在ChatGPT和Sora继续受到严格审查时实现转折。该公司还确认,将继续咨询"全球医师网络、政策制定者等,以支持人们福祉的方式构建先进的AI系统"。

这一顾问团的成立反映了AI行业在快速发展过程中,越来越重视技术对用户心理健康的影响。随着AI越来越深入地融入人们的生活,特别是青少年的成长环境,如何确保这些技术的安全性和有益性,将成为行业面临的重要挑战。

未来展望

随着顾问团工作的深入,我们可以期待看到ChatGPT在心理健康安全方面的具体改进。这些改进可能包括:

  1. 更精准的青少年用户识别与保护机制
  2. 更有效的心理健康风险识别与干预系统
  3. 更完善的家长通知与控制功能
  4. 更符合儿童认知发展特点的交互设计

然而,正如专家们指出的,AI与心理健康的关系复杂且多面,技术的进步需要与伦理考量、社会研究和政策监管同步进行。OpenAI的顾问团只是这一长期努力的一部分,整个行业需要持续关注和改进,以确保AI技术真正成为促进人类福祉的工具,而非潜在的风险源。