AI健康顾问团揭秘:为何预防自杀专家缺席ChatGPT升级团队

1

在科技与心理健康日益交融的时代,人工智能助手如ChatGPT正成为人们日常生活中不可或缺的一部分。然而,随着这些AI系统影响力的扩大,其潜在的心理健康风险也引发了广泛关注。OpenAI最近宣布成立"AI健康顾问团",旨在提升ChatGPT的心理健康安全性,但这一重要团队中却未包含任何自杀预防专家,这一决定引发了业界和公众的广泛争议。

顾问团的成立背景与使命

OpenAI的AI健康顾问团并非凭空产生,而是在一系列事件推动下成立的。今年早些时候,OpenAI开始就家长控制功能与专家进行非正式咨询,这成为了顾问团形成的基础。如今,这一咨询机制已正式化,汇集了八位"在研究技术如何影响我们的情绪、动机和心理健康方面拥有数十年经验的领先研究人员和专家",以帮助指导ChatGPT的更新。

OpenAI在新闻稿中明确表示,顾问团的一个优先事项是"寻找几位具有理解如何支持健康青少年发展的技术背景的成员",因为"青少年使用ChatGPT的方式与成年人不同"。

顾问团成员的专业背景

顾问团成员各具专长,主要集中在以下几个领域:

儿童发展与AI影响专家

  • David Bickham:波士顿儿童医院研究主任,长期研究社交媒体对儿童心理健康的影响。
  • Mathilde Cerioli:非营利组织Everyone.AI的首席科学官,研究儿童使用AI的机会与风险,特别关注"AI如何与儿童认知和情感发展相交"。

计算机与心理健康交叉领域专家

  • Munmun De Choudhury:佐治亚理工学院交互计算教授,研究"通过计算方法改进在线技术在塑造和改善心理健康方面的作用"。

心理健康与技术融合专家

  • Tracy Dennis-Tiwary:心理学教授,Arcade Therapeutics联合创始人。
  • Sara Johansen:斯坦福大学数字心理健康诊所创始人。
  • David Mohr:西北大学行为干预技术中心主任。
  • Andrew K. Przybylski:人类行为与技术教授。
  • Robert K. Ross:公共卫生专家,OpenAI此前曾聘请其担任非营利委员会顾问。

缺席的自杀预防专家

值得注意的是,尽管顾问团成员在儿童发展、心理健康与技术融合等领域拥有丰富经验,却没有一位是专门研究自杀预防的专家。这一决定与去年数十位自杀预防专家向OpenAI发出的公开信形成了鲜明对比。这些专家呼吁OpenAI咨询那些对"几十年的研究和生活经验"显示的"自杀预防有效方法"有深入了解的专家。

Mathilde Cerioli在去年接受播客采访时被问及最早报告的与聊天机器人相关的青少年自杀事件时表示,儿童大脑发展是她最"热衷"的领域。她表示这一消息并不令她惊讶,并指出她的研究重点较少于弄清"为什么会发生"这种情况,而更多于为什么可能发生,因为青少年"倾向于"寻求"人际连接"。

Cerioli指出,在现实生活中,一个有困扰的青少年向朋友表露自杀意念,更可能导致成年人介入;而与聊天机器人交流则需要特定的安全措施,以确保通知家长。

OpenAI的家长控制措施

这一观点似乎与OpenAI为添加家长控制措施所采取的步骤一致。公司新闻稿称,他们与专家合作设计了"青少年可能处于困境时通知家长的语言"。

然而,在家长资源页面上,OpenAI确认,如果青少年在表达"自残意图"后被链接到现实世界资源,家长不会总是收到通知。这可能让一些批评者感到担忧,他们认为家长控制措施做得还不够。

虽然OpenAI在新闻稿中没有明确说明,但Munmun De Choudhury似乎可以帮助ChatGPT进化,以识别何时儿童处于危险状态并通知家长。

2023年,De Choudhury进行了一项关于大型语言模型在数字心理健康中的益处和害处的研究。该研究部分获得了美国自杀预防基金会资助,并指出当时提供治疗服务的聊天机器人只能检测出大约一半的"自杀行为"。她报告称,这一任务在学者看来似乎是"不可预测的"和"随机的"。

首次会议聚焦AI的积极影响

OpenAI确认,顾问团至今已召开过一次会议,目的是向致力于升级ChatGPT和Sora的团队介绍这些顾问。未来,顾问团将定期召开会议,探索可能需要添加护栏的敏感话题。

然而,OpenAI似乎更感兴趣的是讨论如果工具经过调整以更有帮助,可能实现的心理健康益处。

顾问团还将帮助OpenAI思考"ChatGPT如何对人们的生活产生积极影响并促进他们的福祉"。公司表示,"我们的一些初步讨论集中在什么是福祉,以及ChatGPT如何帮助人们在生活的各个方面导航。"

专家观点的分歧

顾问团成员对AI与心理健康的关系持有不同观点,反映了这一领域的复杂性和多样性。

乐观派

Andrew K. Przybylski在2023年共同发表了一项研究,提供了反驳互联网普遍对心理健康产生负面影响的数据。他告诉Mashable,他的研究提供了关于"互联网接入本身是否与更糟糕的情绪和心理体验相关联"这一问题的"迄今为止最好的证据",并可能为持续提供现实依据。

Sara Johansen今年早些时候在LinkedIn上发文,建议像OpenAI这样的公司"将社交媒体对青少年心理健康影响的见解应用于AI伴侣等新兴技术",并得出结论:"AI有很大潜力增强心理健康支持,同时也带来了围绕隐私、信任和质量的新挑战。"

谨慎派

相比之下,David Mohr对AI聊天机器人扮演治疗师角色持谨慎态度。他在2024年告诉《华尔街日报》:"我认为我们还远未达到会有一个像治疗师一样的AI的程度。它仍然有太多可能失控的方式。"

Tracy Dennis-Tiwary上月告诉Wired,她认为在大多数非"临床"情况下,"AI精神病"这一术语"非常没有帮助"。然而,她曾警告说:"最重要的是,AI必须支持人类福祉、社会联系的基础。"

Dennis-Tiwary去年写道:"虽然承认社交AI对神经多样性个体可能有富有成效的应用,但在儿童和其他弱势群体中使用这种高度不可靠和不准确的技术存在巨大的伦理问题。"

顾问团的意义与影响

对于OpenAI而言,健康顾问团可能帮助公司在ChatGPT和Sora继续受到严格审查时实现转型。公司还确认,将继续咨询"全球医师网络、政策制定者等,以支持人们福祉的方式构建先进的AI系统。"

这一顾问团的成立反映了AI行业在快速发展过程中对伦理和安全问题的日益重视。然而,自杀预防专家的缺席也表明,OpenAI在平衡创新与安全、技术发展与人文关怀之间仍面临挑战。

未来展望

随着AI技术的不断进步,其在心理健康领域的应用也将更加广泛和深入。OpenAI的健康顾问团可能会在这一过程中发挥重要作用,但如何确保AI真正服务于人类福祉,而非带来新的风险,仍需持续的关注和努力。

特别是对于青少年这一特殊群体,AI的影响可能更为深远。正如Mathilde Cerioli所言:"儿童不是小大人","他们的大脑非常不同,AI的影响也非常不同"。这提醒我们,在设计和部署AI系统时,必须充分考虑不同年龄段用户的特点和需求。

结语

OpenAI的AI健康顾问团代表了科技公司在应对AI伦理挑战方面迈出的重要一步。然而,顾问团的组成也引发了关于专业全面性的疑问。在AI与心理健康这一复杂领域,需要多学科、多视角的参与,才能真正实现技术发展与人类福祉的平衡。

未来,我们期待看到顾问团如何推动ChatGPT的安全升级,以及OpenAI如何回应各界的关切和建议。只有通过持续的努力和对话,才能确保AI技术真正成为促进人类福祉的工具,而非带来新的风险和挑战。