背景概述:从争议到行动
2025年,OpenAI面临严峻挑战——ChatGPT被指控成为一名青少年的"自杀教练",这一事件引发了社会对AI系统心理安全性的广泛关注。在随后的法律诉讼中,OpenAI承认其安全防护措施存在缺陷,导致AI系统未能有效阻止青少年获取危险建议。这一事件促使OpenAI迅速采取行动,不仅推出了家长控制功能,还成立了"AI健康顾问团",旨在提升ChatGPT的心理健康安全性。
然而,这一决策引发了争议:顾问团中并未包含任何自杀预防专家。多位自杀预防专家对此表示失望,认为OpenAI忽视了这一关键领域。本文将深入分析OpenAI的决策背景、顾问团成员的专业背景,以及这一决策对AI安全发展的影响。
顾问团的组成与专业背景
OpenAI的"AI健康顾问团"由八位"拥有数十年经验的研究人员和专家"组成,他们专注于研究技术如何影响人类的情绪、动机和心理健康。OpenAI强调,顾问团的一个优先任务是寻找"几位拥有构建支持健康青少年发展的技术背景的成员",因为"青少年使用ChatGPT的方式与成年人不同"。
儿童发展与AI研究专家
顾问团中,波士顿儿童医院的研究主任David Bickham和非营利组织Everyone.AI的首席科学官Mathilde Cerioli是两位专注于儿童与AI研究的专家。
Bickham长期研究社交媒体对儿童心理健康的影响。他在美国心理学会2025年1月发表的一篇关于教育中AI的文章中指出,"小孩子已经从角色中学习"——就像他们观看《芝麻街》一样,并与这些角色形成"拟社会关系"。他提出,AI聊天机器人可能成为下一个前沿领域,如果我们更多地了解孩子与聊天机器人的 bonding 方式,它们可能会填补教学角色的空缺。
Cerioli则专注于儿童使用AI的机会与风险,特别是"AI如何与儿童认知和情感发展相交"。她最近警告称,使用AI长大的儿童可能面临大脑被"重写"的风险,变得"无法处理矛盾",特别是"如果他们最早的社会互动是在神经回路高度可塑的年龄,与永远迁就的实体进行的"。
心理健康与技术交叉领域专家
顾问团的其他成员大多来自心理健康与技术的交叉领域,包括:
- Tracy Dennis-Tiwary:心理学教授,Arcade Therapeutics联合创始人
- Sara Johansen:斯坦福大学数字心理健康诊所创始人
- David Mohr:西北大学行为干预技术中心主任
- Andrew K. Przybylski:人类行为与技术教授
- Robert K. Ross:公共卫生专家,曾担任OpenAI非营利委员会顾问
此外,佐治亚理工学院的交互计算教授Munmun De Choudhury虽未明确列入顾问团,但她的研究方向与顾问团目标高度一致,可能参与相关工作。De Choudhury研究计算方法以改善"在线技术在塑造和改善心理健康方面的作用",2023年她进行了一项关于大型语言模型在数字心理健康中益处和危害的研究,部分资金来自美国自杀预防基金会。
争议焦点:为何没有自杀预防专家?
顾问团成立后,最引人争议的决策是未纳入任何自杀预防专家。这令数十位自杀预防专家感到失望,他们上个月曾致信OpenAI,呼吁公司咨询那些对"数十年的研究和经验表明什么在自杀预防中有效"有深入了解的专家。
专家观点:儿童与AI互动的独特性
面对这一质疑,OpenAI似乎更关注儿童与AI互动的独特性。Cerioli在去年接受播客采访时表示,当被问及最早报道的与聊天机器人相关的青少年自杀事件时,儿童大脑发展是她最"热衷"的领域。她表示这一消息并不令她惊讶,并指出她的研究较少关注"为什么会发生",而更多关注为什么可能发生,因为青少年"天生"寻求"人类连接"。
她指出,在现实世界中,一个困扰的青少年向朋友透露自杀念头,更可能导致成年人介入;而聊天机器人则需要内置特定的安全措施,以确保通知父母。
家长控制措施的局限性
OpenAI在推出家长控制功能时,确实咨询了专家来设计"青少年可能处于困境时通知父母的语言"。然而,在家长资源页面上,OpenAI确认,如果青少年在表达"自伤意图"后被链接到现实世界资源,父母不会总是收到通知。这一决定可能引起一些批评者的担忧,他们认为家长控制措施做得不够。
De Choudhury的研究可能有助于改进这一点。她的2023年研究表明,当时提供治疗服务的聊天机器人只能检测到大约一半的"自杀行为"。她报告称,这一任务对学者来说似乎是"不可预测"和"随机的"。
顾问团的首次会议与未来方向
OpenAI确认,顾问团已举行过一次会议,旨在向顾问们介绍负责升级ChatGPT和Sora的团队。未来,顾问团将定期举行会议,探讨可能需要增加护栏的敏感话题。然而,OpenAI最初似乎更感兴趣的是讨论如果工具经过调整以更有帮助,可能实现的心理健康益处。
OpenAI表示:"顾问团还将帮助我们思考ChatGPT如何对人们的生活产生积极影响,并促进他们的福祉。我们最初的讨论重点是什么构成福祉,以及ChatGPT如何帮助人们在生活的各个方面导航。"
乐观与谨慎的声音
顾问团成员对AI与心理健康的关系持不同态度。Przybylski在2023年共同发表的一项研究中提供了数据,反驳了广泛认为互联网接入对心理健康有负面影响的主张。他告诉Mashable,他的研究提供了关于"互联网接入本身是否与更糟糕的情感和心理体验相关"这一问题的"迄今为止最好的证据",并可能为OpenAI提供现实依据,以应对目前国会中煽动的聊天机器人心理健康恐慌。
Johansen对陪伴机器人持乐观态度。今年早些时候,她在LinkedIn上建议像OpenAI这样的公司"将社交媒体对青少年心理健康影响的见解应用于AI伴侣等新兴技术",并得出结论:"AI有很大潜力增强心理健康支持,同时也带来了关于隐私、信任和质量的新挑战。"
然而,Mohr对AI聊天机器人扮演治疗师角色持谨慎态度。他在2024年告诉《华尔街日报》:"我认为我们还远未达到会有一个像治疗师一样行动的AI的地步。它仍然有太多可能出错的途径。"
Dennis-Tiwary则认为,大多数非临床情况下,"AI精神病"这一术语"非常无帮助"。她警告说:"最重要的是,AI必须支持人类福祉的基础——社会连接。"她写道:"虽然承认社交AI对神经多样性个体可能有富有成效的应用,但在儿童和其他弱势群体中使用这种高度不可靠和不准确的技术存在巨大的伦理问题。"
OpenAI的应对与未来展望
对于OpenAI而言,健康顾问团的成立可能标志着公司在ChatGPT和Sora继续面临严格审查时的一个转折点。公司确认将继续咨询"全球医生网络、政策制定者等,以支持人们福祉的方式构建先进的AI系统"。
然而,这一决策也反映了AI安全领域的复杂挑战:如何在创新与安全之间取得平衡,如何满足不同群体的需求,以及如何确保AI系统真正服务于人类福祉。
多元化专家团队的必要性
OpenAI的顾问团组成表明,公司更关注AI对儿童和青少年的影响,以及技术对心理健康的一般性影响。然而,自杀预防专家的缺席引发了一个重要问题:AI安全措施是否应该更加专业化,针对特定风险领域?
随着AI技术的快速发展,建立一个多元化的专家团队,涵盖从儿童发展、心理健康到特定风险领域如自杀预防的各个方面,可能是确保AI系统真正安全的关键。
透明度与公众参与
此外,OpenAI的决策过程也引发了关于透明度和公众参与的讨论。在AI安全如此重要的领域,公司是否应该更广泛地征求利益相关者的意见,包括那些可能受到AI系统负面影响的人群?
随着社会对AI安全的关注日益增加,OpenAI和其他AI公司可能需要更加开放和透明地展示其安全措施和决策过程,以建立公众信任。
结论:AI安全之路任重道远
OpenAI成立AI健康顾问团的举措反映了公司对AI安全问题的重视,特别是在青少年心理健康方面的关注。然而,顾问团的组成也引发了关于专业化知识和多元视角重要性的讨论。
在AI技术快速发展的今天,确保AI系统的安全性不仅需要技术上的创新,还需要多学科的合作和对人类福祉的深刻理解。OpenAI的案例表明,AI安全之路仍然任重道远,需要公司、专家和公众共同努力,才能确保AI技术真正造福人类社会。
未来,随着AI技术的不断发展和应用场景的扩大,AI安全措施也需要不断演进和完善。建立一个包容多元观点、专业全面的专家团队,可能是确保AI系统安全、可靠、符合伦理的关键一步。同时,加强透明度和公众参与,也有助于建立社会对AI技术的信任,促进AI技术的健康发展。
AI与心理健康:专家正在研究如何确保AI系统对用户的心理健康产生积极影响