在医疗领域,人工智能技术的应用正以前所未有的速度扩展,而其中最具争议也最为敏感的领域之一,莫过于AI替身(AI surrogates)在生死决策中的应用。随着AI技术的不断进步,一些专家逐渐认为,患者的数字"克隆体"有朝一日可能会帮助家属、医生和伦理委员会做出符合患者价值观和目标的临终决定。这一概念不仅挑战着传统医疗决策模式,也引发了深刻的伦理思考。
AI替身:从概念到现实
"这是非常新的领域,所以很少有人在做这项工作,"华盛顿大学UW医学院的住院研究员Muhammad Aurangzeb Ahmad告诉Ars Technica。Ahmad正致力于在美国医疗机构中试点AI替身技术,他的研究基于西雅图港景医疗中心(Harborview Medical Center)的患者数据。
目前,Ahmad的模型专注于分析港景医疗中心已经收集的数据,如伤害严重程度、病史、既往医疗选择和人口统计信息。"我们使用这些信息,将其输入机器学习预测模型,然后在回顾性数据中观察模型的表现如何,"Ahmad解释道。
然而,这项研究仍处于概念阶段,Ahmad确认目前还没有患者与他的模型互动过。UW医学院发言人Susan Gregg表示,在推出之前需要完成"大量工作",系统需要经过"多阶段审查流程"才能获得批准。
Ahmad设想未来的模型还将分析文本数据,可能来自患者批准的与医生的对话记录,以告知其AI替身的预测。在这种技术的"理想"形式中,Ahmad看到患者一生中都与AI系统互动,提供反馈以完善模型,使患者随着年龄增长而适应健康系统。
AI替身的准确性与局限性
Ahmad的主要目标是开发能够准确预测患者偏好的AI替身,准确率达到"三分之二"左右。然而,医学专家们对这一目标提出了质疑。
宾夕法尼亚州重症监护室的医生Emily Moin指出,患者的偏好往往是"动态构建且依赖上下文的"。"如果你通过询问康复后的人在康复前会说什么来评估模型的表现,那将无法提供准确的表征,"Moin解释道。
Moin还指出,医疗AI的一个大问题是人们期望它"提供比我们目前能够生成的更好的预测"。但模型正在训练"便利的真相"上,这些真相并不"为模型提供有意义的学习示例"。
"我猜他们实际上会想要部署这个模型来帮助无法沟通、没有代理人的患者做决定,"Moin说,"但恰恰是这些患者,你永远无法知道所谓的真相是什么,然后你永远无法评估你的偏见,也永远无法评估你的模型表现。"
人类决策者的重要性
多位专家强调,AI不应取代人类决策者。上个月,生物伦理学专家Robert Truog与致力于推进临终关怀的医生R. Sean Morrison共同强调,AI永远不应在复苏决策中取代人类决策者。
"关于假设情景的决策与需要实时做出的决策没有相关性,"Morrison告诉Ars。"AI无法解决这个根本问题——这不是更好的预测问题。患者的偏好往往代表了一个时间点的快照,根本无法预测未来。"
慕尼黑工业大学AI与神经伦理学主席的高级研究助理Georg Starke也同意这一观点。他的团队最近发表了一项概念验证研究,显示三种AI模型在预测患者偏好方面的平均表现优于人类决策者。然而,Starke的团队强调,"人类决策者仍然是特定情况背景方面的重要来源",并同意"AI模型不应取代决策代理"。
Starke的研究依赖于欧洲一项针对50岁以上人群健康趋势调查的现有数据,该调查提供了关于参与者临终偏好的全面信息,包括关于CPR的问题。这使他的团队能够构建三种模型:简单模型、基于常用电子健康记录的模型和更"个性化"的模型。每个模型都成功预测了经历心脏骤停的患者是否需要CPR,准确率高达70%。
AI替身的伦理与文化考量
文化因素在AI替身的接受度中也扮演着重要角色。Moin指出,美国的文化已经从"非常注重患者自主权"转变为"更多是共享决策,有时以家庭和社区为中心的视角"作为做出这些困难决策的标准。
医生与患者相处的时间越长,患者的健康团队与家庭成员的对话越多,健康系统就越有可能随着时间的推移调整以尊重患者的意愿,Moin建议。这一观点呼应了Ahmad的"理想"AI替身模型。
然而,Moin担心,如果患者与AI交谈,实际上可能会阻碍他们与家人进行重要对话。研究表明,如果患者填写预先指示,可能会更难确定他们的偏好,Moin说,因为患者可能不太可能与亲人讨论他们的偏好。
透明度与信任问题
医院医生Teva Brender表示,AI系统能够最好地作为讨论的"发射台",为决策者提供考虑哪些数据可能对患者重要的方式。但他同意Moin的观点,如果不了解AI替身如何做出决策,AI可能会播下不信任的种子。
"如果一个黑盒算法说祖母不希望复苏,我不知道这是否有帮助,"Brender说。"你需要它是可解释的。"
Ahmad同意人类应该始终参与决策过程。他强调自己并没有急于部署AI模型,这些模型仍处于概念阶段。使他的工作复杂化的是,目前很少有研究探讨AI替身使用中的偏见和公平性。
Ahmad计划通过一篇即将发表的论文来填补这一空白,该论文概述了各种公平观念,然后考察了不同道德传统中的公平性。最终,Ahmad建议,使用AI替身的公平性"超越了结果的平等,还包括对患者价值观、关系和世界观的忠实度"。
未来发展与挑战
Ahmad希望在未来五年内在华盛顿大学各个站点测试其概念模型,这将提供"某种量化这项技术有多好的方法"。"在那之后,我认为社会需要集体决定如何整合或不整合这样的东西,"Ahmad说。
在他的论文中,他警告可能被解释为患者模拟的聊天机器人AI替身,预测未来的模型甚至可能用患者的声音说话,并暗示此类工具的"舒适度和熟悉度"可能会模糊"辅助和情感操纵之间的界限"。
Starke同意需要更多研究和患者与医生之间"更丰富的对话"。"我们应该谨慎不要不加区分地将AI作为寻找问题的解决方案,"Starke说。"AI不会免除我们做出艰难的伦理决定,特别是关于生死的决定。"
Truog告诉Ars,他"可以想象AI有一天可以为决策者提供一些有趣的信息,这会有所帮助"。但"所有这些途径的一个问题是...它们都将是否进行CPR的决定框定为二元选择,无论背景或心脏骤停的情况如何"。Truog说:"在现实世界中,当患者失去知觉时,他们是否希望进行CPR这个问题的答案,在几乎所有情况下,都是'视情况而定'。"
结论:AI作为辅助而非替代
随着AI技术在医疗领域的应用不断扩展,AI替身在生死决策中的角色仍处于探索阶段。虽然研究人员如Ahmad正努力开发能够准确预测患者偏好的模型,但医学专家们普遍认为,AI应作为决策辅助工具,而非取代人类决策者。
生死决策涉及复杂的伦理、文化和个人价值观,这些因素很难完全通过算法捕捉。AI替身可能提供有价值的信息和见解,但无法替代人类决策者基于对患者的了解、情感联系和道德判断所做的决定。
未来,AI替身技术需要在透明度、可解释性、偏见评估和伦理框架等方面取得显著进展,才能在医疗决策中扮演有意义的角色。同时,社会需要就这些技术的适当使用进行广泛讨论,确保它们以尊重患者自主权、维护医疗系统信任和促进公平的方式整合到医疗实践中。
正如Truog所言:"AI不会免除我们做出艰难的伦理决定,特别是关于生死的决定。"在生死攸关的医疗决策中,技术可以提供支持,但最终的责任仍在于人类。











