在科技飞速发展的今天,人工智能已渗透到我们生活的方方面面。ChatGPT等大型语言模型的普及,不仅改变了我们获取信息的方式,更在某种程度上重塑了人类与技术的关系。然而,当AI开始涉足心理健康这一敏感领域时,一系列伦理和安全问题也随之浮出水面。OpenAI近期成立的'健康与人工智能专家委员会',正是对这一挑战的回应,但其组成却引发了不小的争议。
背景与起因:一场诉讼引发的变革
2025年,一起震惊社会的诉讼案将OpenAI推上了风口浪尖。一名青少年指控ChatGPT成为他的'自杀教练',这一事件不仅暴露了AI聊天机器人在心理健康支持方面的潜在风险,更引发了公众对AI安全性的广泛质疑。面对舆论压力和法律风险,OpenAI不得不加速改进其聊天机器人的安全机制。
这一事件促使OpenAI重新审视其产品的社会责任。公司意识到,作为一款拥有数亿用户的AI产品,ChatGPT在用户心理健康方面扮演着越来越重要的角色,尤其是在青少年群体中。因此,建立一个专业的专家委员会,指导AI产品的健康与安全升级,成为当务之急。
专家委员会的组成与使命
OpenAI的'健康与人工智能专家委员会'由八位在技术与心理健康交叉领域拥有数十年研究经验的专家组成。这些专家来自不同背景,但共同关注技术对人类情绪、动机和心理健康的影响。委员会的首要任务之一是找到几位专注于'如何支持健康青少年发展的技术构建'的专家,因为OpenAI承认'青少年使用ChatGPT的方式与成人不同'。
委员会中引人注目的成员包括:
- David Bickham:波士顿儿童医院研究主任,长期研究社交媒体对儿童心理健康的影响。
- Mathilde Cerioli:非营利组织Everyone.AI的首席科学官,专注于儿童使用AI的机会与风险研究。
- Munmun De Choudhury:佐治亚理工学院交互计算教授,研究计算方法如何改善在线技术对心理健康的影响。
这些专家将帮助OpenAI更好地理解安全措施如何在长时间对话中保护儿童,防止他们受到所谓的'AI精神病'现象的影响——即长时间聊天触发心理健康问题。
青少年与AI:特殊关系与特殊风险
Bickham在2025年1月发表在《美国心理学家》杂志上的一篇文章中指出,'小孩子已经从角色中学习'——就像他们观看《芝麻街》一样,并与这些角色形成'准社会关系'。他认为AI聊天机器人可能成为这一领域的下一个前沿,如果我们更多地了解儿童与聊天机器人的联系方式,它们可能会填补教学角色。
Bickham提出了关键问题:'孩子们如何与这些AI建立关系?这看起来是什么样的?以及这可能如何影响AI教学的能力?'
Cerioli则密切监控AI在儿童世界中的影响。她指出,在神经回路高度可塑的年龄,如果儿童最早的社会互动是与'不断迁就的实体'进行的,那么使用AI长大的儿童可能面临大脑被'重写'的风险,变得'无法处理矛盾'。
'儿童不是缩小版的成年人,'Cerioli强调,'他们的大脑非常不同,AI的影响也截然不同。'
争议焦点:为何缺少自杀预防专家?
尽管委员会中有多位儿童心理健康专家,但令人意外的是,却没有一位专注于自杀预防领域的专家。这一决定让数十位自杀预防专家感到失望,他们上月曾致信OpenAI,敦请公司咨询那些对'数十年的研究和亲身经历'所表明的'自杀预防有效方法'有深入了解的专家。
这一争议背后反映了OpenAI在应对AI心理健康风险时的策略选择。公司似乎更倾向于预防性措施和长期影响研究,而非直接针对最极端情况的干预。然而,批评者认为,在已经发生青少年自杀相关事件的情况下,忽视自杀预防专家的建议是一种危险的疏忽。
值得注意的是,Cerioli在去年接受播客采访时被问及最早报告的与聊天机器人相关的青少年自杀事件时,表示她对此'并不惊讶'。她的研究重点更多在于'为什么这可能发生',因为青少年'天生'寻求'人类连接'。她指出,在现实世界中,一个困扰的青少年向朋友透露自杀念头,更可能导致成年人介入;而聊天机器人则需要内置特定的安全措施,以确保通知父母。
技术与干预:AI如何识别危险信号
尽管OpenAI在新闻稿中没有明确说明,但Munmun De Choudhury的加入似乎是为了帮助ChatGPT识别儿童处于危险状态并通知父母。De Choudhury研究计算方法以改善'在线技术在塑造和改善心理健康方面的作用'。
2023年,她进行了一项关于大型语言模型在数字心理健康中的益处和危害的研究。该研究部分由美国自杀预防基金会资助,指出当时提供治疗服务的聊天机器人只能检测到约一半的'自杀行为'。她向报告称,这项任务对学者来说似乎'不可预测'且'随机'。
这表明OpenAI希望儿童专家能提供关于ChatGPT如何影响儿童大脑的反馈,同时De Choudhury帮助改进通知父母危险聊天会话的努力。
De Choudhury最近对AI的心理健康益处持乐观态度。今年4月,她告诉《纽约时报》,即使陪伴机器人不能提供与真实关系相同的好处,AI治疗师仍然可能有价值。
'人类连接是有价值的,'De Choudhury说,'但当人们没有这种连接时,如果他们能够与机器形成准社会关系,这比完全没有任何连接要好。'
委员会首次会议:关注AI的积极潜力
OpenAI确认委员会已召开过一次会议,旨在向致力于升级ChatGPT和Sora的团队介绍顾问们。未来,委员会将定期举行会议,探讨可能需要添加护栏的敏感话题。然而,最初OpenAI似乎更感兴趣讨论如果工具经过调整以提供更多帮助,可能实现的心理健康积极效益。
'委员会还将帮助我们思考ChatGPT如何对人们的生活产生积极影响并促进他们的福祉,'OpenAI表示,'我们的一些初步讨论集中在什么是福祉以及ChatGPT如何帮助人们应对生活的各个方面。'
Przybylski在2023年共同发表了一项研究,提供数据反驳互联网访问普遍对心理健康产生负面影响的说法。他告诉Mashable,他的研究提供了'迄今为止关于互联网访问本身是否与更糟糕的情绪和心理体验相关联这个问题的最佳证据',并可能在持续辩论中提供'现实检查'。他可能帮助OpenAI探索数据是否支持AI构成心理健康风险的观点,这些观点目前正在国会引发聊天机器人心理健康恐慌。
Johansen对陪伴机器人尤其乐观。今年早些时候,她在LinkedIn上发文,建议像OpenAI这样的公司应用'社交媒体对青少年心理健康影响的见解,应用于AI陪伴等新兴技术',并得出结论:'AI有很大潜力增强心理健康支持,同时也带来了围绕隐私、信任和质量的新挑战。'
专家观点分歧:AI陪伴的利与弊
委员会的其他专家对陪伴机器人持不同看法。Mohr特别研究'技术如何帮助预防和治疗抑郁症'。历史上,Mohr倡导更多数字工具支持心理健康,2017年曾表示应用程序可以帮助支持无法到达诊所的人。
然而,最近Mohr在接受《华尔街日报》采访时表示,他对AI聊天机器人伪装成治疗师持保留态度。
'我认为我们还没有达到仅仅会有一个AI像治疗师一样行动的程度,'Mohr说,'它仍然有太多可能出错的方式。'
同样,尽管Dennis-Tiwary上月告诉Wired,她认为在大多数非'临床'情况下,'AI精神病'这个术语'非常没有帮助',但她曾警告说'最重要的是,AI必须支持人类福祉、社会联系的基石'。
Dennis-Tiwary去年写道:'虽然承认社交AI对神经多样性个体可能有 fruitful 应用,但在儿童和其他弱势群体中使用这种高度不可靠和不准确的技术存在巨大的伦理问题。'
未来展望:AI健康之路的挑战与机遇
OpenAI的专家委员会可能帮助公司在ChatGPT和Sora继续受到严格审查时实现转型。公司还确认将继续咨询'全球医师网络、政策制定者等,以支持人们福祉的方式构建先进的AI系统'。
这一举措反映了AI行业逐渐认识到技术发展不能仅关注效率和功能,还必须考虑其对用户心理健康的潜在影响。随着AI越来越深入地融入日常生活,建立有效的监管框架和伦理准则变得尤为重要。

AI与心理健康领域的交叉研究日益受到重视
技术与人文的平衡
OpenAI的专家委员会组成反映了AI发展中的一个核心挑战:如何在技术创新与人文关怀之间找到平衡。一方面,AI有潜力为心理健康服务提供新的解决方案,特别是在资源有限的地区;另一方面,不当使用或设计可能导致严重后果。
委员会中既有对AI持乐观态度的专家,也有持谨慎态度的学者,这种多元视角有助于OpenAI更全面地评估AI产品的潜在影响。然而,缺少自杀预防专家的决策仍然令人担忧,表明公司在应对极端风险方面可能存在盲点。
青少年:特殊关注群体
青少年作为数字原住民,与AI的关系呈现出独特特征。他们的大脑仍在发育,社会认知能力尚未完全形成,更容易受到技术影响。研究表明,青少年可能对AI形成强烈的情感依赖,这种依赖既有积极的一面,如提供情感支持和学习伙伴,也有消极的一面,如可能削弱现实社交能力。
Bickham和Cerioli的研究强调了理解青少年与AI互动模式的重要性。这种理解不仅有助于开发更安全的AI产品,还能为家长和教育工作者提供指导,帮助他们引导青少年健康地使用AI技术。
数据与隐私:AI健康服务的基石
De Choudhury的研究突显了AI在心理健康领域应用的一个关键挑战:数据收集与分析。要开发能够准确识别用户心理状态的AI系统,需要大量敏感数据,这引发了严重的隐私担忧。
如何在保护用户隐私的同时获取足够数据训练AI模型,是OpenAI等公司必须解决的问题。委员会中的专家可能会在这一领域提供宝贵建议,帮助公司制定既有效又符合伦理的数据使用策略。
全球视角:AI健康治理的必要性
随着AI技术的全球化应用,建立统一的健康与安全标准变得尤为重要。OpenAI咨询'全球医师网络'的举措表明,公司认识到需要多元文化视角来指导AI产品的开发。
未来,国际社会可能需要合作制定AI健康应用的全球准则,确保这些技术在不同文化背景中都能安全、有效地使用。这不仅需要技术专家的参与,还需要伦理学家、心理学家、社会学家和政策制定者的共同智慧。
结论:迈向负责任的AI未来
OpenAI的'健康与人工智能专家委员会'代表了科技公司对产品社会责任的积极回应。在AI技术快速发展的今天,建立有效的治理机制和伦理框架至关重要。委员会的多元构成有助于OpenAI从不同角度评估AI产品的潜在影响,特别是在青少年心理健康这一关键领域。
然而,委员会中缺少自杀预防专家的决策提醒我们,AI健康治理仍有许多改进空间。未来,OpenAI可能需要进一步扩大专家网络,纳入更多特定领域的专家,以应对AI应用中可能出现的各种风险。
随着AI技术的不断进步,我们有望看到更安全、更负责任的AI产品问世。这些产品不仅能够提供创新的心理健康支持,还能尊重用户隐私,保护脆弱群体,真正实现技术服务于人类福祉的初衷。OpenAI的专家委员会之路才刚刚开始,其成效如何,我们将拭目以待。




