在科技飞速发展的今天,人工智能已深度融入我们的日常生活。然而,随着AI技术的普及,其潜在的心理健康风险也日益凸显。OpenAI作为行业领军企业,近期宣布成立"健康与AI专家顾问团",这一举措标志着AI安全领域的重要转折点。本文将深入剖析这一顾问团的成立背景、专家构成、研究方向及其对整个AI行业的深远影响。
顾问团成立的背景与动机
OpenAI成立专家顾问团的直接导火索是一起引发广泛关注的法律诉讼。该诉讼指控ChatGPT成为一名青少年的"自杀教练",这一事件不仅暴露了AI系统在心理健康防护方面的重大缺陷,也促使OpenAI加速推进ChatGPT的安全升级。
"自那起诉讼以来,我们一直在努力使聊天机器人对所有用户而言更加安全,"OpenAI在官方声明中解释道。"如今,我们正式成立了专家顾问团,汇集了八位在研究技术如何影响人类情绪、动机和心理健康方面拥有数十年经验的领先研究人员和专家。"
这一顾问团的雏形可以追溯到今年年初,当时OpenAI开始就家长控制功能非正式地咨询专家意见。如今,这一咨询机制已正式化,成为OpenAI产品开发过程中的重要组成部分。
顾问团的专家构成与专业领域
OpenAI精心挑选的顾问团成员涵盖了多个相关学科领域,每位专家都拥有独特的专业背景和研究方向。
儿童发展专家:关注AI对青少年的特殊影响
顾问团特别强调了对青少年用户群体的关注,因为"青少年使用ChatGPT的方式与成年人不同"。这一领域的核心专家包括:
David Bickham:波士顿儿童医院研究主任,长期研究社交媒体对儿童心理健康的影响。他在美国心理学会2025年1月发表的一篇关于教育中AI的文章中指出:"小孩子已经从角色中学习——就像他们观看《芝麻街》一样——并与这些角色形成'准社会关系'。AI聊天机器人可能成为下一个前沿领域。"
Mathilde Cerioli:非营利组织Everyone.AI的首席科学官,研究儿童使用AI的机会与风险,特别关注"AI如何影响儿童认知和情感发展"。她警告称,在AI陪伴下成长的儿童可能面临大脑被"重塑"的风险,变得"无法处理矛盾",特别是在"神经回路高度可塑"的年龄段,如果最早的社会互动是与"无限顺从的实体"进行的。
心理健康与计算专家:技术干预的可能性
顾问团还包括几位专注于计算方法改善心理健康的研究者:
- Munmun De Choudhury:佐治亚理工学院交互计算教授,研究"在线技术在塑造和改善心理健康方面的作用"。2023年,她进行了一项关于大型语言模型在数字心理健康中的益处与危害的研究,部分资金由美国自杀预防基金会提供。该研究指出,当时提供治疗服务的聊天机器人仅能检测约一半的"自杀行为",这一任务在学者看来似乎"不可预测"且"随机"。
De Choudhury对AI心理健康的潜在持乐观态度。2025年4月,她告诉《纽约时报》:"人类联系是有价值的。但当人们没有这种联系时,如果他们能够与机器形成准社会关系,这比完全没有联系要好。"
其他心理健康与技术交叉领域专家
顾问团的其他成员也都在心理健康与技术交叉领域有着深厚积累:
Tracy Dennis-Tiwary:心理学教授,Arcade Therapeutics联合创始人,虽认为"AI精神病"一词在大多数非临床情况下"非常无帮助",但警告称"最重要的是,AI必须支持人类福祉、社会联系的基础"。
Sara Johansen:斯坦福大学数字心理健康诊所创始人,在LinkedIn上发文建议公司如OpenAI应"将社交媒体对青少年心理健康影响的见解应用于AI伴侣等新兴技术",认为"AI在增强心理健康支持方面有很大潜力"。
David Mohr:西北大学行为干预技术中心主任,研究技术如何帮助预防和治疗抑郁症。然而,他对AI聊天机器人扮演治疗师角色持谨慎态度,2024年告诉《华尔街日报》:"我认为我们还没有达到仅仅会有一个像治疗师一样的AI的程度。它仍然有太多可能出错的途径。"
Andrew K. Przybylski:人类行为与技术教授,2023年合著了一项研究,提供数据反驳互联网接入普遍对心理健康产生负面影响。他可能帮助OpenAI探索数据是否支持AI构成心理健康风险的看法,这一观点目前正在国会引发聊天机器人心理健康恐慌。
Robert K. Ross:公共卫生专家,此前曾被OpenAI聘请担任非营利委员会顾问。
顾问团的工作重点与首次会议成果
OpenAI确认,顾问团已召开首次会议,旨在向顾问们介绍正在升级ChatGPT和Sora的团队。未来,顾问团将定期举行会议,探讨可能需要增加防护栏的敏感话题。
值得注意的是,OpenAI似乎更倾向于讨论通过调整工具使其更有益来实现的心理健康潜在益处。官方声明指出:"顾问团还将帮助我们思考ChatGPT如何对人们的生活产生积极影响并促进他们的福祉。我们的一些初步讨论集中在什么是福祉以及ChatGPT如何帮助人们在生活的各个方面导航。"
争议与批评:缺失的自杀预防专家
尽管顾问团的构成令人印象深刻,但一个明显的缺失引发了批评:没有专门的自杀预防专家。这令数十名自杀预防专家感到失望,他们上月曾致信OpenAI,敦促公司咨询那些对"数十年的研究和亲身经历"所表明的"在自杀预防中什么有效"有深入了解的专家。
Cerioli在去年接受播客采访时被问及最早报告的与聊天机器人相关的青少年自杀事件时表示,儿童大脑发展是她最"热衷"的领域。她说这一消息并不令她惊讶,并指出她的研究较少关注找出"为什么会发生",而更多关注为什么可能发生,因为青少年"倾向于"寻求"人类联系"。
她指出,在现实世界中,一个困扰的青少年向朋友透露自杀念头更可能导致成年人介入,而聊天机器人则需要内置特定的防护措施,以确保通知父母。
这一观点与OpenAI添加家长控制措施的步骤似乎一致,公司声明称咨询专家设计了"青少年可能处于困境时通知家长的语言"。然而,在家长资源页面上,OpenAI确认,如果青少年在表达"自残意图"后被链接到现实世界资源,家长不会总是收到通知,这令一些认为家长控制措施不够严格的批评者感到担忧。
未来展望:AI安全与心理健康的新平衡
OpenAI的顾问团可能帮助公司在ChatGPT和Sora继续受到严格审查的情况下实现转型。公司还确认将继续咨询"全球医师网络、政策制定者等,以支持人们福祉的方式构建先进AI系统"。
从更广泛的视角看,这一顾问团的成立反映了AI行业对心理健康风险认识的深化。随着AI技术越来越深入地融入日常生活,特别是对青少年等脆弱群体,建立有效的防护机制和伦理框架变得至关重要。
专家们的多元观点——从乐观到谨慎——也表明AI与心理健康的关系复杂且多维度。一方面,AI有潜力提供前所未有的心理健康支持;另一方面,其潜在风险也不容忽视。
结论:迈向负责任的AI发展
OpenAI成立健康与AI专家顾问团的举措,标志着AI行业在安全与伦理方面迈出了重要一步。通过汇集多学科专家,公司试图在推动技术创新的同时,确保AI系统对用户的心理健康产生积极影响。
然而,顾问团的构成也暴露了AI安全领域的某些盲点,特别是自杀预防等关键领域的专家缺席。这提醒我们,AI安全是一个持续演进的过程,需要不断反思和完善。
随着顾问团工作的深入,我们有望看到ChatGPT等AI系统在心理健康保护方面的实质性改进。这不仅关乎OpenAI的声誉,更关乎整个AI行业的可持续发展和社会责任。在技术日新月异的今天,确保AI真正服务于人类福祉,而非带来新的风险,是我们共同的责任与挑战。