在ChatGPT被指控成为青少年"自杀教练"的诉讼案发生后,OpenAI一直努力使其聊天机器人更加安全。近日,这家AI公司公布了聘请的专家团队,这些专家将帮助改进ChatGPT,使其成为对所有用户更健康的选择。
专家委员会的成立背景
OpenAI在新闻稿中解释,"健康与人工智能专家委员会"的组建始于今年早些时候OpenAI就家长控制问题与专家的非正式咨询。如今这一委员会已正式成立,汇集了八位"拥有数十年研究经验、专注于研究技术如何影响人类情感、动机和心理健康的顶尖研究人员和专家",以指导ChatGPT的更新。
OpenAI表示,优先考虑的是寻找"几位具有如何构建支持健康青少年发展的技术背景的委员会成员",因为"青少年使用ChatGPT的方式与成年人不同"。
委员会成员的专业背景
儿童发展专家
波士顿儿童医院研究主管David Bickham被纳入委员会,他一直密切监控社交媒体对儿童心理健康的影响。Everyone.AI非营利组织首席科学官Mathilde Cerioli也是成员之一,她研究儿童使用AI的机会与风险,特别关注"AI如何与儿童认知和情感发展相交"。
这些专家似乎可以帮助OpenAI更好地理解在长时间对话中安全措施如何失效,确保儿童不易受到所谓的"AI精神病"现象的影响——即长时间聊天引发心理健康问题的现象。
在2025年1月,Bickham在美国心理学会关于教育中AI的一篇文章中指出,"小孩子已经从角色中学习"——就像他们观看《芝麻街》一样,并与这些角色形成"准社会关系"。Bickham建议,如果我们更多地了解孩子们与聊天机器人建立联系的方式,AI聊天机器人可能成为下一个前沿领域,可能填补教学角色。
"孩子们如何与这些AI建立关系,那是什么样子,以及这可能如何影响AI教学的能力?"Bickham提出疑问。
Cerioli密切监控AI在儿童世界中的影响。《世界报》报道,她上月提出,使用AI长大的儿童可能面临大脑被"重写"的风险,"变得无法处理矛盾",特别是"如果他们在神经回路高度可塑的年龄,最早的社会互动是与永远迁就他们的实体进行的"。
"儿童不是缩小版的成年人,"Cerioli说,"他们的大脑非常不同,AI的影响也非常不同。"
自杀风险专家
尽管两位专家都专注于儿童发展,但都没有专门研究儿童自杀预防。这可能让上个月敦促OpenAI咨询"在自杀预防方面有深入研究"的专家们感到失望——这些专家拥有"数十年的研究和生活经验",了解"什么在自杀预防方面有效"。
然而,在OpenAI的专家中,佐治亚理工学院交互计算教授Munmun De Choudhury可能帮助ChatGPT识别儿童何时处于危险状态并通知家长。
OpenAI指出,De Choudhury研究"通过计算方法改进在线技术在塑造和改善心理健康方面的作用"。
2023年,她进行了一项关于大型语言模型在数字心理健康中益处和危害的研究。该研究部分由美国自杀预防基金会资助,并指出当时提供治疗服务的聊天机器人只能检测约一半的"自杀行为"。她向报告者表示,这项任务对学者来说似乎"不可预测"且"随机"。
似乎OpenAI希望儿童专家能提供关于ChatGPT如何影响儿童大脑的反馈,而De Choudhury则帮助改进通知家长有关令人不安的聊天会话的努力。
De Choudhury最近似乎对AI的心理健康益处持乐观态度。她在2025年4月告诉《纽约时报》,即使陪伴机器人不能提供与真实关系相同的好处,AI治疗师仍然可能有价值。
"人类的联系是有价值的,"De Choudhury说,"但当人们没有这种联系时,如果他们能够与机器形成准社会关系,这比完全没有联系要好。"
委员会首次会议聚焦AI益处
委员会中大多数其他专家与De Choudhury有相似的背景,探索心理健康与技术的交叉领域。他们包括Tracy Dennis-Tiwary(心理学教授和Arcade Therapeutics联合创始人)、Sara Johansen(斯坦福大学数字心理健康诊所创始人)、David Mohr(西北大学行为干预技术中心主任)和Andrew K. Przybylski(人类行为与技术教授)。
还有公共卫生专家Robert K. Ross,OpenAI此前曾聘请他担任非营利委员会顾问。
OpenAI确认目前只举行过一次会议,目的是向致力于升级ChatGPT和Sora的团队介绍这些顾问。未来,该委员会将定期举行会议,探讨可能需要添加护栏的敏感话题。不过,OpenAI最初似乎更感兴趣的是讨论如果工具经过调整以更有帮助,可能实现的心理健康益处。
"委员会还将帮助我们思考ChatGPT如何能对人们的生活产生积极影响,并促进他们的福祉,"OpenAI表示,"我们的一些初步讨论集中在什么是福祉,以及ChatGPT如何在人们生活的各个方面赋予他们力量。"
值得注意的是,Przybylski在2023年共同发表了一项研究,提供数据反驳互联网访问普遍对心理健康产生负面影响。他告诉Mashable,他的研究提供了"关于互联网访问本身是否与更糟糕的情绪和心理体验相关联这一问题的迄今为止最好的证据",并可能为当前关于这一问题的辩论提供"现实检查"。
同样对陪伴机器人持乐观态度的还有Johansen。她在今年早些时候的一篇LinkedIn文章中建议,像OpenAI这样的公司应"将社交媒体对青少年心理健康影响的见解应用于AI陪伴等新兴技术",并得出结论:"AI在增强心理健康支持方面有很大潜力,同时也带来了围绕隐私、信任和质量的新挑战。"
对AI陪伴机器人的批评声音
然而,委员会中其他专家对陪伴机器人持批评态度。OpenAI指出,Mohr专门"研究技术如何帮助预防和治疗抑郁症"。
历史上,Mohr一直倡导更多数字工具支持心理健康,并在2017年表示应用程序可以帮助支持那些无法到达诊所的人。
然而,Mohr在2024年告诉《华尔街日报》时,他对AI聊天机器人冒充治疗师表示担忧。
"我认为我们还远未达到会有一个AI像治疗师一样行动的程度,"Mohr说,"它仍然有太多可能出错的途径。"
同样,尽管Dennis-Tiwary上月告诉Wired,在大多数非"临床"情况下,她认为"AI精神病"一词"非常无帮助",但她曾警告说"最重要的是,AI必须支持人类福祉的基础——社会联系"。
"虽然承认社交AI对神经多样性个体可能有 fruitful 应用,但儿童和其他易受影响人群使用这种高度不可靠和不准确技术存在巨大的伦理问题,"Dennis-Tiwary去年写道。
结论:AI健康之路任重道远
对于OpenAI而言,健康委员会可能帮助公司在ChatGPT和Sora继续受到严格审查时实现转折。该公司还确认,在"以支持人们福祉的方式构建先进AI系统"的过程中,将继续咨询"全球医师网络、政策制定者等"。

然而,委员会中缺乏自杀预防专家的决策引发了质疑。在青少年自杀风险日益受到关注的背景下,这一缺失可能反映出OpenAI在应对最严重心理健康风险方面的优先级设置。
随着AI技术深入日常生活,特别是对青少年群体的影响,OpenAI及其同行需要更加全面地考虑技术可能带来的心理风险。健康委员会的成立是一个积极步骤,但要真正确保AI产品的安全性和有益性,还需要更加多元化的专家视角,特别是那些直接处理最严重心理健康问题的专业人士。
AI与心理健康的交叉领域仍处于早期发展阶段,需要持续的研究、透明的讨论和多方利益相关者的参与。只有通过这种方式,我们才能确保AI技术不仅创新高效,而且真正服务于人类福祉的最大化。









