在医疗领域,一个长期存在且极具挑战性的问题是如何为无法表达意愿的患者做出符合其价值观和愿望的医疗决策。随着人工智能技术的快速发展,一个新兴的解决方案正在形成——AI医疗决策代理(AI surrogates),即创建患者的数字"克隆",协助医生、家属和伦理委员会做出符合患者价值观和目标的临终决策。
研究现状:从概念到实践
华盛顿大学医学院的Muhammad Aurangzeb Ahmad博士正在引领这一领域的探索。作为UW Medicine的驻院研究员,Ahmad在位于西雅图的Harborview医疗中心开展研究,致力于测试基于患者数据的AI模型预测患者偏好的准确性。
"这非常新颖,所以很少有人从事这项研究,"Ahmad告诉Ars。"目前我们仍处于概念阶段,主要工作是测试基于Harborview患者数据的AI模型的准确性。"
Ahmad的研究目前主要分析医院已收集的数据,如伤情严重程度、病史、既往医疗选择和人口统计信息。"我们利用这些信息,输入到机器学习预测模型中,然后在回顾性数据中观察模型的表现,"他解释道。

尽管目前尚未有患者与Ahmad的模型互动,但他设想未来的模型将能够分析文本数据,可能来自患者授权的与医生的对话记录,或家属提供的聊天和短信内容。在技术的"理想"形态中,Ahmad看到患者在整个生命周期中与AI系统互动,随着患者年龄增长和健康状况变化,提供反馈以完善模型。
"获取相关数据需要时间,"Ahmad说道。"任何涉及人类受试者的测试都需要获得机构审查委员会(IRB)的批准。"
技术挑战:准确性与局限性
AI医疗决策代理面临的核心挑战是准确性验证。"只有当患者存活并能够确认模型做出了正确选择时,我们才能验证模型的准确性,"Ahmad指出。"我们的目标是开发能够准确预测患者偏好的AI代理,准确率达到约三分之二。"
然而,宾夕法尼亚州ICU的医生Emily Moin对这种验证方法提出了质疑。"这些决策是动态构建且依赖上下文的,"Moin解释道。"如果你通过询问康复后的患者他们在康复前会做出什么选择来评估模型性能,那将无法提供准确的评估。"
Moin指出,医疗AI的一个主要问题是人们期望它"提供比我们目前能力更好的预测",但这些模型正在基于"便利的真相"进行训练,这些真相"并不为模型提供有意义的学习示例"。"他们可能希望部署这个模型来帮助无法沟通或没有代理人的患者做决定,但恰恰是这些患者,你永远无法知道所谓的'真相',也就无法评估你的偏见和模型性能。"
伦理考量:AI与人类决策的边界
医疗决策不仅是技术问题,更是伦理问题。Teve Brender,旧金山一家退伍军人医疗中心的住院医师,表示这些决策对所有人来说都是"充满心理社会风险的"。"对于许多人来说,将AI纳入护理目标对话会引发噩梦般的想象,即我们将深深的人类决策委托给算法,"Brender的团队在一篇观点文章中写道。"我们分享这些担忧。"

上个月,生物伦理学专家Robert Truog与专注于姑息治疗的医生R. Sean Morrison共同强调,AI绝不应在复苏决策中取代人类代理人。"关于假设场景的决策与需要实时做出的决策没有相关性,"Morrison告诉Ars。"AI无法解决这个根本问题——这不是更好的预测问题。患者的偏好往往只是一个时间点的快照,根本无法预测未来。"
这一警告是在Georg Starke博士发表了一项概念验证研究之后提出的。该研究表明,三种AI模型在预测患者偏好方面的平均表现优于人类代理人。Starke的研究依赖于欧洲一项针对50岁以上人群健康趋势调查的瑞士受访者现有数据。
然而,Starke的团队也强调,"人类代理人仍然是特定情况背景方面的重要信息来源",特别是对于患有痴呆症的患者,并同意AI模型"不应取代代理决策"。Starke指出,仅依赖"准确性"的AI模型存在一个关键局限,特别是当这种"准确性"是通过偶然或纯粹匹配个人无法控制的人口统计数据模式实现的,其输出不一定"反映自主选择"。
社会影响:文化差异与信任危机
Moin观察到,美国文化在医疗决策方面已经从"非常注重患者自主权"转变为"更多采用共享决策模式,有时以家庭和社区为中心"。"医生了解患者的时间越长,患者的医疗团队与家庭成员的对话越多,医疗系统就越有可能随着时间的推移调整以尊重患者的愿望,"她建议道。
Ahmad的"理想"AI代理模型呼应了这一观点。但Moin担心,如果患者与AI交谈,实际上可能会 discourage 他们与家人进行重要对话。"研究发现,如果患者填写预先指示,可能会更难确定他们的偏好,"Moin说,"因为患者可能不太可能与爱人讨论他们的偏好。"
Moin特别担心"无法为自己说话且没有明确亲人"的患者最容易受到AI代理错误决策的伤害。"太多这样的错误可能会进一步侵蚀对医疗系统的信任,"她警告道。
透明度与偏见:AI决策的黑箱问题
Brender认为,AI系统可以最好地作为讨论的"启动平台",为代理人提供考虑哪些数据对患者可能重要的方式。但他同意Moin的观点,如果不透明AI代理如何做出决策,AI可能会播下不信任的种子。
"如果一个黑箱算法说祖母不希望复苏,我不知道这是否有帮助,"Brender说。"你需要它是可解释的。"
Ahmad同意应该始终有人参与决策过程。他强调自己并不急于部署AI模型,这些模型仍处于概念阶段。使他的工作复杂化的是,目前很少有研究探讨AI代理使用中的偏见和公平性问题。
Ahmad旨在通过一篇即将发布的预印本论文填补这一空白,该论文概述了各种公平观念,然后考察了不同道德传统中的公平性。Ahmad认为,使用AI代理的公平性"超越了结果的平等,还包括对患者价值观、关系和世界观的忠实度"。
"核心问题不仅是'模型是否有偏见?',而是'模型 inhabits 谁的道德宇宙?'"Ahmad写道,举例说明:
考虑以下情况:两个临床状况相似的患者可能在道德推理上有所不同,一个由自主权指导,另一个由家庭或宗教责任指导。在算法术语中,以"相似"的方式对待他们将构成道德抹除。个体公平需要纳入敏感价值观的特征,如记录的灵性偏好或关于舒适度的陈述,同时不侵犯隐私。
未来展望:AI作为决策辅助工具
尽管存在诸多挑战,专家们仍认为AI在医疗决策中有其价值。"在医生和代理人的预测面临显著局限的情况下,'我们有必要考虑如何安全、道德和公平地部署AI来帮助重病患者的代理人,"Brender的团队总结道。
Starke认为,理想情况下应基于最容易获取的电子健康记录构建模型,但从临床角度来看,"理想的应该是大型、多样化、纵向和专门构建的数据集。"它将结合人口统计和临床变量、记录的预先护理计划数据、患者记录的价值观和目标,以及特定决策的背景信息。"
包括文本和对话数据可以进一步提高模型学习偏好产生和变化原因的能力,而不仅仅是患者在某个时间点的偏好是什么。"
Ahmad建议未来的研究可以专注于临床试验中验证公平框架,通过模拟评估道德权衡,以及探索跨文化生物伦理如何与AI设计相结合。
只有到那时,AI代理才可能准备好部署,但仅作为"决策辅助工具"。任何"有争议的输出"应自动"触发伦理审查,"Ahmad写道,总结道"最公平的AI代理是邀请对话、承认怀疑并为护理留下空间的那一个。"
"AI不会免除我们的责任,"Starke强调。"我们应该谨慎不要不加区别地将AI作为寻找问题的解决方案。AI不会免除我们做出艰难的道德决定的责任,特别是关于生死的决定。"
Truog也持类似观点,他"可以想象AI有一天可以为代理决策者提供一些有趣的信息,这会有所帮助。"但他认为,所有这些途径都存在一个问题:它们都将是否进行CPR的决定框定为二元选择,无论上下文或心脏骤停的具体情况如何。"在现实世界中,当患者失去意识时,他们是否希望接受CPR这个问题的答案,在几乎所有情况下,都是'视情况而定'。"
结语
AI医疗决策代理代表了医疗技术与伦理交叉的前沿领域。虽然这一技术展现出为无法表达意愿的患者提供决策辅助的潜力,但其发展仍面临准确性验证、伦理边界、文化适应性和透明度等多重挑战。
正如专家们所强调的,AI不应取代人类决策者,而应作为辅助工具,增强而非替代人类判断。在生死攸关的医疗决策中,技术必须服务于人性,而非相反。随着这一领域的继续发展,社会需要广泛的讨论和明确的指导原则,确保AI医疗决策代理的发展既尊重患者自主权,又维护医疗决策的人文关怀。







