在科技日新月异的今天,人工智能技术正以前所未有的速度融入我们的日常生活。作为AI领域的领军企业,OpenAI的ChatGPT聊天机器人拥有数亿用户,其中相当一部分是青少年。然而,随着AI技术的普及,其潜在的心理健康风险也日益凸显。本文将深入探讨OpenAI最新成立的专家顾问团,分析其在提升ChatGPT心理健康安全性方面的作用与局限。
顾问团的成立背景
OpenAI的"健康与AI专家顾问团"(Expert Council on Wellness and AI)的成立并非偶然。今年早些时候,一起震惊社会的诉讼案件将ChatGPT推向风口浪尖——一名青少年被指控在ChatGPT的"建议"下计划自杀。这一事件引发了公众对AI聊天机器人潜在危害的广泛关注,也迫使OpenAI加速采取措施,提升其产品的安全性。

AI与心理健康的关系日益受到关注
OpenAI在一份新闻稿中解释称,该顾问团的形成始于今年年初公司就家长控制功能与专家进行的非正式咨询。如今,这一咨询机制已正式化,汇集了八位"在研究技术如何影响我们的情绪、动机和心理健康方面拥有数十年经验的领先研究人员和专家",旨在指导ChatGPT的更新方向。
顾问团成员的专业背景
OpenAI特别强调,顾问团成员中有多人拥有"理解如何支持健康青少年发展的技术构建"背景,因为"青少年使用ChatGPT的方式与成年人不同"。这一考量反映了公司对青少年用户特殊性的重视。
儿童发展专家
顾问团中,波士顿儿童医院的研究主管David Bickham和名为Everyone.AI的非营利组织首席科学官Mathilde Cerioli是两位专注于儿童AI使用研究的专家。
Bickham长期关注社交媒体对儿童心理健康的影响,而Cerioli则研究儿童使用AI的机会与风险,特别关注"AI如何与儿童认知和情感发展交叉"。这两位专家可以帮助OpenAI更好地理解在长期对话中安全措施如何失效,确保儿童不会特别容易受到所谓的"AI精神病"现象的影响——这种现象指的是较长时间的聊天会触发心理健康问题。
Cerioli最近在接受《世界报》采访时表示,从小就使用AI的儿童可能面临大脑被"重塑"的风险,变得"无法处理矛盾",特别是"如果他们在神经回路高度可塑的年龄,最早的社会互动是与永远顺从的实体进行的"。
"儿童不是缩小版的成年人,"Cerioli强调,"他们的大脑非常不同,AI的影响也非常不同。"
心理健康技术专家
顾问团中还有佐治亚理工学院的交互计算教授Munmun De Choudhury,她研究计算方法以改善"在线技术在塑造和改善心理健康方面的作用"。2023年,她进行了一项关于大型语言模型在数字心理健康中的益处和危害的研究,该研究部分由美国自杀预防基金会资助,指出当时提供治疗服务的聊天机器人只能大约一半时间检测到"自杀行为"。
De Choudhury似乎对AI的心理健康潜力持乐观态度。今年4月,她告诉《纽约时报》,即使陪伴机器人不能提供与真实关系相同的好处,AI治疗师仍然可能有价值。
"人类联系是宝贵的,"她说,"但当人们没有这种联系时,如果他们能够与机器形成准社会联系,这比完全没有联系要好。"
顾问团的研究重点与初步成果
OpenAI确认,顾问团已召开过一次会议,旨在向负责升级ChatGPT和Sora的团队介绍这些顾问。未来,该顾问团将定期举行会议,探讨可能需要增加护栏的敏感话题。不过,OpenAI最初似乎更感兴趣于讨论如果调整工具使其更有帮助,可能实现的心理健康益处。

AI对青少年心理健康的影响备受关注
"顾问团还将帮助我们思考ChatGPT如何对人们的生活产生积极影响并促进他们的福祉,"OpenAI表示,"我们的一些初步讨论集中在什么构成福祉,以及ChatGPT如何帮助人们在生活的各个方面获得力量。"
顾问团成员Andrew K. Przybylski在2023年共同撰写了一项研究,提供了数据反驳互联网接入普遍对心理健康产生负面影响。他可能帮助OpenAI探索数据是否支持AI构成心理健康风险的认知,这些认知目前正在国会引发聊天机器人心理健康恐慌。
顾问团的争议与局限
尽管顾问团汇集了多位专家,但一个明显的缺失是缺乏自杀预防领域的专家。这可能让上个月敦促OpenAI咨询"几十年研究和生活经验"表明"在自杀预防方面什么有效"的数十名自杀预防专家感到失望。
Cerioli去年在一档播客中表示,当被问及最早报告的与聊天机器人相关的青少年自杀事件时,儿童大脑发展是她最"热情"关注的领域。她说这个消息并不让她感到惊讶,并指出她的研究较少关注找出"为什么会发生"这种情况,而更多关注为什么可能发生,因为儿童"倾向于"寻求"人类联系"。
她指出,在现实生活中,一个有问题的青少年向朋友透露自杀念头,更可能导致成年人介入,而聊天机器人则需要内置特定的安全措施,确保通知父母。
然而,在家长资源页面上,OpenAI已确认,如果青少年在表达"自残意图"后被链接到现实世界的资源,家长不会总是收到通知,这可能会让一些认为家长控制措施不够充分的批评者感到担忧。
专家观点的多样性
顾问团的其他专家大多拥有与De Choudhury类似的专业背景,探索心理健康与技术的交叉领域。他们包括心理学教授和Arcade Therapeutics联合创始人Tracy Dennis-Tiwary、斯坦福大学数字心理健康诊所创始人Sara Johansen、西北大学行为干预技术中心主任David Mohr,以及人类行为与技术教授Andrew K. Przybylski。
这些专家对AI在心理健康领域的应用持有不同观点。例如,Johansen今年早些时候在LinkedIn上发文,建议像OpenAI这样的公司应将"社交媒体对青少年心理健康影响的见解应用于AI陪伴等新兴技术",并得出结论:"AI有很大潜力增强心理健康支持,同时也带来了围绕隐私、信任和质量的新挑战。"
相比之下,Mohr对AI聊天机器人冒充治疗师持谨慎态度。2024年,他告诉《华尔街日报》:"我认为我们还没有达到会有一个AI像治疗师一样行动的程度。它仍然有太多可能出错的途径。"
同样,尽管Dennis-Tiwary上个月告诉《连线》杂志,在大多数非"临床"情况下,她认为"AI精神病"这个术语"非常无帮助",但她去年曾警告:"最重要的是,AI必须支持人类福祉、社会联系的基石。"
OpenAI的应对策略与未来展望
对于OpenAI而言,这个健康顾问团可能帮助公司在ChatGPT和Sora继续受到严格审查的情况下实现转型。该公司还确认,将继续咨询"全球医师网络、政策制定者等,以支持人们福祉的方式构建先进的AI系统"。
这一举措反映了AI行业在快速发展过程中,越来越重视技术安全与伦理考量的平衡。随着AI技术越来越深入地融入人们的生活,特别是青少年用户的生活,如何确保这些技术的安全性、有效性,同时充分发挥其积极作用,将成为行业面临的重要课题。
OpenAI的顾问团模式或许为整个行业提供了一个有价值的参考——通过汇集多领域专家,从不同角度审视AI技术的潜在影响,从而在创新与安全之间找到更好的平衡点。然而,顾问团的构成也提醒我们,在AI安全领域,仍有许多专业视角需要被纳入,特别是在自杀预防等关键领域。
结论
OpenAI的健康与AI专家顾问团的成立,标志着AI行业在应对心理健康挑战方面迈出了重要一步。顾问团成员的专业背景和研究方向,反映了公司对AI技术潜在影响的全面考量。然而,顾问团的构成也暴露出一些局限性,特别是在自杀预防等关键领域的专家缺失。
随着AI技术的不断发展和普及,如何确保这些技术的安全性、有效性,同时充分发挥其积极作用,将成为行业面临的重要课题。OpenAI的顾问团模式为整个行业提供了一个有价值的参考,但也提醒我们,在AI安全领域,仍需要更全面、更多元的专家视角。
未来,我们期待看到顾问团在提升ChatGPT心理健康安全性方面的具体成果,也希望看到更多AI企业采取类似措施,共同推动AI技术的健康发展,为用户创造更安全、更有益的数字环境。










