背景与起因
自从一起法律诉讼指控ChatGPT成为青少年的"自杀教练"以来,OpenAI一直在努力使其聊天机器人更加安全。近日,这家AI公司公布了聘请的专家名单,这些专家将协助使ChatGPT成为对所有用户都更健康的选择。
OpenAI在新闻稿中解释,其AI健康与专家委员会的形成始于今年早些时候,当时OpenAI开始就家长控制功能非正式地咨询专家。现在这一委员会已经正式成立,汇集了八位"在研究技术如何影响我们的情绪、动机和心理健康方面拥有数十年经验的领先研究人员和专家",以帮助指导ChatGPT的更新。
专家团队构成
OpenAI表示,优先寻找的是"几位在了解如何支持青少年健康发展的技术构建方面有背景的委员会成员",因为"青少年使用ChatGPT的方式与成年人不同"。
这一努力包括波士顿儿童医院的研究主任David Bickham,他一直密切监测社交媒体对儿童心理健康的影响,以及名为Everyone.AI的非营利组织首席科学官Mathilde Cerioli。Cerioli研究儿童使用AI的机会和风险,特别关注"AI如何与儿童认知和情感发展相交"。
这些专家似乎可以帮助OpenAI更好地了解在长时间对话中安全措施如何对儿童失效,确保儿童不会特别容易受到所谓的"AI精神病"的影响,这是一种较长时间的聊天触发心理健康问题的现象。
青少年与AI的特殊关系
今年1月,Bickham在美国心理学会关于教育中AI的一篇文章中指出,"小孩子已经从角色中学习"——就像他们观看《芝麻街》一样,并与这些角色形成"拟社会关系"。Bickham建议,AI聊天机器人可能是下一个前沿领域,如果我们更多地了解孩子与聊天机器人建立联系的方式,它们可能会填补教学角色。
"孩子们如何与这些AI建立关系,这看起来像什么,以及这可能如何影响AI的教学能力?"Bickham提出了疑问。
Cerioli密切监测AI在儿童世界中的影响。《世界报》报道,她上月提出,使用AI长大的儿童可能面临大脑被"重写"的风险,"变得无法处理矛盾",特别是"如果他们最早的社会互动是在神经回路高度可塑的年龄,与永远迁就的实体进行的"。
"儿童不是缩小版的成年人,"Cerioli说。"他们的大脑非常不同,AI的影响也非常不同。"
缺失的视角
值得注意的是,这两位专家都没有专注于儿童自杀预防。这可能令上个月推动OpenAI咨询"在自杀预防方面有效"的专家的数十名自杀预防专家感到失望,这些专家拥有"数十年的研究和生活经验"。
在去年的一次播客中,当被问及最早报道的与聊天机器人相关的青少年自杀事件时,Cerioli表示儿童大脑发展是她最"热衷"的领域。她说看到这个消息并不令她惊讶,并指出她的研究较少专注于弄清楚"为什么会发生",而更多地关注为什么可能发生,因为儿童"天生"寻求"人类连接"。
她指出,在现实生活中,一个有问题的青少年向朋友透露自杀念头,更可能导致成年人介入,而聊天机器人则需要内置特定的安全措施,以确保通知父母。
这似乎与OpenAI采取的添加家长控制措施的步骤一致,公司新闻稿称,这些措施是"与专家合作设计"的,"当青少年可能处于困境时通知父母的语言"。然而,在给父母的资源页面上,OpenAI确认,如果青少年在表达"自残意图"后被链接到现实世界的资源,父母不会总是收到通知,这可能让一些认为家长控制措施不够严格的批评者感到担忧。
潜在的安全专家
虽然OpenAI在新闻稿中没有明确说明,但佐治亚理工学院的交互计算教授Munmun De Choudhury似乎可以帮助ChatGPT进化,以识别儿童何时处于危险中并通知父母。
OpenAI指出,De Choudhury研究计算方法,以改善"在线技术在塑造和改善心理健康方面的作用"。
2023年,她进行了一项关于大型语言模型在数字心理健康中的益处和危害的研究。该研究部分得到了美国自杀预防基金会资助的资助,并指出当时提供治疗服务的聊天机器人只能检测到约一半的"自杀行为"。她报告说,这项任务对学者来说似乎是"不可预测"和"随机的"。
似乎OpenAI希望儿童专家可以就ChatGPT如何影响儿童大脑提供反馈,同时De Choudhury帮助改进通知父母有问题的聊天对话的努力。
委员会首次会议
OpenAI确认,迄今为止已经举行过一次会议,目的是向致力于升级ChatGPT和Sora的团队介绍这些顾问。未来,该委员会将举行定期会议,探讨可能需要添加护栏的敏感话题。不过,最初,OpenAI似乎更感兴趣于讨论如果工具经过调整以更有用,可能实现的心理健康益处。
"该委员会还将帮助我们思考ChatGPT如何能对人们的生活产生积极影响,并促进他们的福祉,"OpenAI表示。"我们的一些初步讨论集中在什么是福祉,以及ChatGPT可能如何帮助人们应对生活的各个方面。"
值得注意的是,Przybylski在2023年共同撰写了一项研究,提供数据反驳互联网访问普遍对心理健康产生负面影响。他告诉Mashable,他的研究提供了关于"互联网访问本身是否与更糟糕的情绪和心理体验相关联的问题的迄今为止最好的证据",并可能为OpenAI探索数据是否支持AI构成心理健康风险的观点提供现实检验,这些观点目前正在国会引发聊天机器人心理健康恐慌。
专家观点的多样性
同样,对陪伴机器人特别乐观的还有Johansen。今年早些时候,她在LinkedIn上发帖,建议像OpenAI这样的公司应用"社交媒体对青少年心理健康影响的见解,来应用于AI伴侣等新兴技术",并得出结论:"AI有巨大潜力增强心理健康支持,同时也带来了围绕隐私、信任和质量的新的挑战。"
委员会的其他专家则对陪伴机器人持批评态度。OpenAI指出,Mohr专门研究"技术如何帮助预防和治疗抑郁症"。
历史上,Mohr一直倡导使用更多数字工具来支持心理健康,2017年他建议应用程序可以帮助支持那些无法到诊所就诊的人。
然而,最近Mohr在2024年告诉《华尔街日报》,他对AI聊天机器人伪装成治疗师表示担忧。
"我认为我们还没有达到会有一个AI像治疗师一样行动的程度,"Mohr说。"它仍然有太多可能出错的方面。"
同样,尽管Dennis-Tiwary上月告诉Wired,在大多数非"临床"情况下,她发现"AI精神病"这个术语"非常没有帮助",但她去年曾警告说:"最重要的是,AI必须支持人类福祉、社会联系的基石。"
"虽然承认社会AI对神经多样性个体可能有潜在的应用,但在儿童和其他弱势群体中使用这种高度不可靠和不准确的技术存在巨大的伦理关切,"Dennis-Tiwary写道。
未来展望
对于OpenAI来说,这个健康委员会可能帮助公司在ChatGPT和Sora继续受到严格审查时实现转变。该公司还确认,将继续咨询"全球医师网络、政策制定者等,以支持人们福祉的方式构建先进的AI系统"。
结论
OpenAI组建的AI健康与专家委员会代表了公司对AI心理健康影响认识的深化,特别是针对青少年这一特殊用户群体。委员会成员的专业背景多样,涵盖了儿童发展、心理健康、技术影响等多个领域,这为ChatGPT的安全升级提供了多角度的视角。
然而,委员会中没有包含自杀预防领域的专家,这确实是一个值得关注的缺位。在AI可能对青少年心理健康产生重大影响的背景下,特别是涉及生命安全的议题,这样的专业知识不可或缺。
未来,随着委员会工作的深入,我们期待看到ChatGPT在心理健康安全方面的实质性改进,以及OpenAI如何平衡AI创新与用户安全之间的关系。这不仅关乎技术发展,更关乎对下一代数字公民的责任与关怀。