从危机到变革:OpenAI的应对之路
自从ChatGPT被卷入一宗法律诉讼,被指控成为青少年"自杀教练"后,OpenAI一直在紧急努力提升其聊天机器人的安全性。这一事件引发了公众对AI系统潜在心理风险的广泛关注,也促使科技巨头重新思考AI产品的伦理边界。如今,OpenAI迈出了关键一步——正式宣布成立"健康与AI专家委员会",旨在让ChatGPT成为对所有用户都更健康的选择。
这一委员会的成立并非偶然。OpenAI在新闻稿中解释,该委员会的雏形形成于今年初公司开始就家长控制问题非正式咨询专家之际。如今,这一咨询机制已正式化,汇聚了八位"在研究技术如何影响我们的情绪、动机和心理健康方面拥有数十年经验的领先研究人员和专家",他们将协助指导ChatGPT的更新方向。
专家委员会构成:谁在塑造AI的未来?
OpenAI特别强调,委员会的一个优先任务是寻找"几位具有构建支持健康青少年发展的技术背景的成员",因为"青少年使用ChatGPT的方式与成人不同"。
儿童发展专家的视角
这一努力包括波士顿儿童医院研究主任David Bickham,他一直密切关注社交媒体对儿童心理健康的影响;以及非营利组织Everyone.AI的首席科学官Mathilde Cerioli,她研究儿童使用AI的机会与风险,特别关注"AI如何与儿童认知和情感发展交叉"。
这些专家似乎能帮助OpenAI更好地理解在长时间对话中安全措施如何失效,确保儿童不会特别容易受到所谓的"AI精神病"现象的影响——即长时间聊天引发心理健康问题的现象。
Bickham在今年1月发表在《美国心理学家协会》杂志上关于教育中AI的文章中指出,"小孩子已经从角色中学习"——就像他们观看《芝麻街》一样,并与这些角色形成"准社会关系"。Bickham建议,AI聊天机器人可能成为下一个前沿领域,如果我们更多地了解儿童与聊天机器人建立联系的方式,它们可能会填补教学角色。
"孩子们如何与这些AI建立关系,这看起来像什么,以及这可能如何影响AI教学的能力?"Bickham提出疑问。
技术与心理健康的交叉研究
Cerioli密切关注AI在儿童世界中的影响。《世界报》报道,她上月提出,在AI中成长的儿童可能面临大脑被"重写"的风险,"变得无法处理矛盾",特别是"如果他们在神经回路高度可塑的年龄最早的社会互动是与永远迁就的实体进行的"。
"儿童不是缩小版的成年人,"Cerioli说,"他们的大脑非常不同,AI的影响也非常不同。"
自杀预防的缺席
值得注意的是,这两位专家都不是专注于儿童自杀预防的。这可能令上个月推动OpenAI咨询对"数十年的研究和生活经验"显示的"自杀预防中什么有效"有深入了解的专家的数十位自杀预防专家感到失望。
然而,从Cerioli去年在一个播客中的言论来看,儿童大脑发展是她对最早报告的与聊天机器人相关的青少年自杀事件"最热情"关注的领域。她说看到这一消息并不惊讶,并指出她的研究较少关注弄清楚"为什么会发生",而更多关注为什么可能发生,因为儿童"准备"寻求"人类连接"。
她指出,在现实世界中,一个困扰的青少年向朋友倾诉自杀意念,更可能导致成年人介入,而聊天机器人则需要内置特定的安全措施,确保通知父母。
家长控制与安全机制
这似乎与OpenAI采取的添加家长控制措施的步骤一致,公司咨询专家设计"当青少年可能处于困境时给家长的通知语言"。然而,在家长资源页面上,OpenAI确认,如果青少年在表达"自残意图"后被链接到现实世界资源,家长不会总是收到通知,这可能会让一些认为家长控制措施不够充分的批评者感到担忧。
虽然OpenAI在新闻稿中没有明确说明,但佐治亚理工学院交互计算教授Munmun De Choudhury似乎可以帮助ChatGPT进化到识别儿童何时处于危险并通知家长。
De Choudhury研究计算方法,以改善"在线技术在塑造和改善心理健康中的作用",OpenAI指出。
2023年,她进行了关于大型语言模型在数字心理健康中的益处和危害的研究。该研究部分由美国自杀预防基金会资助,并指出当时提供治疗服务的聊天机器人只能检测到大约一半的"自杀行为"。她报告说,这个任务对学者来说似乎"不可预测"和"随机"。
看起来,OpenAI希望儿童专家可以提供关于ChatGPT如何影响儿童大脑的反馈,同时De Choudhury帮助改进通知家长有问题的聊天会话的努力。
最近,De Choudhury似乎对AI的潜在心理健康益处持乐观态度,她在4月告诉《纽约时报》,即使陪伴机器人不能提供与真实关系相同的益处,AI治疗师仍然有价值。
"人类连接是有价值的,"De Choudhury说,"但是当人们没有这种连接时,如果他们能够与机器形成准社会关系,这比完全没有连接要好。"
专家委员会的首次会议:聚焦AI的积极面
迄今为止,OpenAI委员会的其他专家大多与De Choudhury有类似的背景,探索心理健康与技术的交叉点。他们包括Tracy Dennis-Tiwary(心理学教授和Arcade Therapeutics联合创始人)、Sara Johansen(斯坦福大学数字心理健康诊所创始人)、David Mohr(西北大学行为干预技术中心主任)和Andrew K. Przybylski(人类行为与技术教授)。
还有公共健康专家Robert K. Ross,OpenAI之前曾聘请他担任非营利委员会顾问。
OpenAI确认迄今已举行过一次会议,目的是向致力于升级ChatGPT和Sora的团队介绍这些顾问。向前看,该委员会将举行定期会议,探索可能需要添加护栏的敏感话题。然而,最初,OpenAI似乎更感兴趣于讨论如果工具经过调整以更有帮助,可能实现的潜在心理健康益处。
"委员会还将帮助我们思考ChatGPT如何对人们的生活产生积极影响并促进他们的福祉,"OpenAI表示,"我们的一些初步讨论集中在什么是福祉以及ChatGPT可能如何帮助人们应对生活的各个方面。"
乐观与谨慎的声音
值得注意的是,Przybylski在2023年共同撰写了一项研究,提供数据反驳互联网的广泛获取对心理健康有负面影响。他告诉Mashable,他的研究提供了关于"互联网接入本身是否与更糟糕的情感和心理体验相关联"这一问题的"最佳证据",并可能为这一问题的持续辩论提供"现实检查"。他可能帮助OpenAI探索数据是否支持AI构成心理健康风险的观点,这些观点目前正在国会引发聊天机器人心理健康恐慌。
同样,对陪伴机器人持乐观态度的还有Johansen。今年早些时候,她在LinkedIn上发文,建议像OpenAI这样的公司应用"社交媒体对青少年心理健康影响的见解来应用于AI陪伴等新兴技术",得出结论"AI有很大潜力增强心理健康支持,同时也提出了关于隐私、信任和质量的新挑战"。
另一方面,委员会的其他专家对陪伴机器人持批评态度。OpenAI指出,Mohr专门"研究技术如何帮助预防和治疗抑郁症"。
历史上,Mohr一直倡导更多的数字工具支持心理健康,在2017年提出应用程序可以帮助支持那些无法到达诊所的人。
然而,最近Mohr在2024年告诉《华尔街日报》,他对AI聊天机器人冒充治疗师表示担忧。
"我认为我们还没有达到会有一个AI像治疗师一样行动的地步,"Mohr说,"它仍然有太多可能出错的方式。"
同样,尽管Dennis-Tiwary上月告诉Wired,在大多数非"临床"情况下,她发现"AI精神病"这个术语"非常没有帮助",但她去年警告说,"最重要的是,AI必须支持人类福祉、社会联系的基石"。
"虽然承认社交AI对神经多样性个体可能有 fruitful 应用,但在儿童和其他脆弱群体中使用这种高度不可靠和不准确的技术是巨大的伦理关切,"Dennis-Tiwary写道。
未来展望:AI健康之路
对于OpenAI来说,这个健康委员会可能帮助公司在ChatGPT和Sora继续受到严格审查时实现转折。该公司还确认,它将继续咨询"全球医师网络、政策制定者等,以支持人们福祉的方式构建先进的AI系统"。
AI与心理健康:专家们正在探索如何确保AI系统对用户的心理健康产生积极影响
随着AI技术的快速发展,如何在创新与安全之间找到平衡成为关键挑战。OpenAI的专家委员会代表了科技行业对AI伦理问题的积极回应,但真正的考验在于这些专家的建议能否转化为切实有效的安全措施。
心理健康专家们对AI影响的分歧也反映了这一领域的复杂性。一方面,AI有潜力扩大心理健康服务的可及性,为资源不足的地区提供支持;另一方面,不当使用可能导致严重的心理依赖甚至危险。
青少年作为AI产品的重要用户群体,他们的认知和情感发展特点需要特别关注。正如专家们所指出的,儿童的大脑可塑性极强,早期的AI交互可能对其社交能力和认知发展产生深远影响。
结论:在创新与责任之间
OpenAI的健康与AI专家委员会代表了科技公司对AI伦理和安全问题日益增长的关注。然而,委员会未包含自杀预防专家的决定引发了关于其全面性的质疑。未来,这一委员会能否真正改善ChatGPT对用户的心理健康影响,还有待观察。
在AI技术飞速发展的今天,确保这些系统对用户的心理健康产生积极影响而非伤害,需要科技公司、研究人员、政策制定者和用户的共同努力。只有多方协作,才能在享受AI带来便利的同时,最大限度地降低其潜在风险。