在医疗领域,一个极具争议性的问题正在浮现:当患者无法表达自己的意愿时,一个AI数字克隆能否帮助决定其生死?这不仅是科幻小说中的情节,更是当前医学研究者正在探索的前沿课题。
AI医疗决策的兴起
十多年来,研究人员一直在思考一个问题:人工智能能否帮助预测当医生必须代表患者做出生死攸关的决定时,患者可能想要什么?
华盛顿大学医学院的Muhammad Aurangzeb Ahmad正在尝试改变这一现状,他正在美国一家医疗机构率先试点所谓的"AI医疗决策辅助系统"。"这是非常新的领域,所以很少有人从事这方面研究,"Ahmad告诉Ars技术网站。
Ahmad是华盛顿大学UW医学院创伤系教职的驻院研究员,他的研究基于西雅图港景医疗中心的Harborview医院数据。目前,他的研究仍处于概念阶段,主要工作是测试基于Harborview患者数据的AI模型准确性。
"目前的主要限制是,只有当患者存活并能够确认模型做出了正确选择时,我们才能验证模型的准确性,"Ahmad解释道。"但这只是第一步,之后准确性测试可能会扩展到网络中的其他设施,目标是开发能够准确预测患者偏好的AI模型,准确率达到三分之二左右。"
AI医疗决策的技术实现
目前,Ahmad的模型专注于分析Harborview已经收集的数据,如损伤严重程度、病史、既往医疗选择和人口统计信息。
"我们使用这些信息,将其输入机器学习预测模型,然后在回顾性数据中观察模型的表现如何,"Ahmad说。
Ahmad设想未来的模型还将分析文本数据,可能来自患者授权的与医生的录音对话,以为其AI克隆的预测提供信息。在这种理想情况下,Ahmad看到患者在整个生命过程中与AI系统互动,随着患者年龄增长和健康状况变化,提供反馈以完善模型。
"获取相关数据需要时间,"Ahmad说。
在患者开始与AI医疗决策系统互动之前,任何人体测试都需要获得机构审查委员会(IRB)的批准。
医学专家的担忧
然而,医学专家们对AI医疗决策系统持谨慎态度。宾夕法尼亚州重症监护室的医生Emily Moin告诉Ars,当患者无法为自己代言时,医生很难确定患者想要什么。
"当我们处于这种快节奏的情况中,我们不知道患者的意愿,但面前有一位已经去世的患者,我们会倾向于提供CPR(心肺复苏),直到我们能够做出临床判断认为这种努力不再合适,或者直到我们能够与决策代理人沟通,"Moin解释道。
Moin指出,医疗AI的一个大问题是,人们期望它"提供比我们目前能够生成的更好的预测"。但是,这些模型正在基于"方便的事实真相"进行训练,这些真相并不"为模型提供有意义的学习示例",了解模型将被应用的情境。
"我想象他们会实际想要部署这个模型来帮助无法沟通、没有代理人的患者做决定,"Moin说,"但恰恰是这些患者,你永远无法知道所谓的真相是什么,然后你永远无法评估你的偏见,也永远无法评估你的模型表现。"
文化与决策视角
Moin指出,文化上,美国已经从"非常专注于患者自主权"转变为"更多采用共享决策模式,有时以家庭和社区为中心"的视角,作为做出这些困难决策的标准。
医生了解患者的时间越长,患者的健康团队与家庭成员的对话越多,健康系统就越有可能随着时间的推移调整以尊重患者的意愿,Moin建议。
但Moin担心,如果患者与AI交流,实际上可能会 discourage他们与家人进行重要对话。研究发现,如果患者填写预先指示,可能会更难确定他们的偏好,Moin说,因为患者可能不太可能与亲人讨论他们的偏好。
今年早些时候,Moin敦促人类决策代理人继续参与不要复苏命令的制定,她写道,单方面做出这些决定的医生有道德义务"确保患者和决策代理人知道决定已经做出",并且在表达反对意见时面临"最低的障碍"。
AI医疗决策的潜在角色
旧金山退伍军人医疗中心的医院医生Teva Brender告诉Ars,这些决策对所有人来说都是"心理上充满冲突的"。这就是为什么像Ahmad这样的测试很重要,他说。
Brender相信Ahmad的研究是有价值的,因为有很多问题需要科学研究。但他"很高兴听到"AI医疗决策系统"实际上还没有在Harborview的患者中使用"。"我无法想象IRB会在这么早的阶段批准这样的事情,"他告诉Ars。
Brender认为,AI医疗决策系统最终可能扮演冗余角色,导致这种潜在的AI应用不再受欢迎。
"魔鬼的视角是,AI医疗决策系统只是做了一个好临床医生本来就会做的事情,"Brender说,"即询问决策者,'嘿,这个人是谁?他们喜欢做什么?什么给他们的生活带来意义?'
"你需要AI来做这件事吗?"Brender问道,"我不太确定。"
AI与人类决策者的互补
上个月,生物伦理学专家Robert Truog与致力于推进旨在改善生命威胁疾病患者生活质量的姑息治疗的医生R. Sean Morrison一起强调,AI永远不应在复苏决策中取代人类决策代理人。
"关于假设情境的决定与需要实时做出的决定没有相关性,"Morrison告诉Ars,"AI无法解决这个基本问题——这不是更好的预测问题。患者的偏好通常代表了一个时间点的快照,它们根本无法预测未来。"
然而,慕尼黑工业大学AI与神经伦理学主席的医生兼高级研究助理Georg Starke共同发表了一项概念验证研究,显示三个AI模型在预测患者偏好方面的表现平均优于人类决策代理人。
Starke的研究依赖于一项欧洲调查中瑞士受访者的现有数据,该调查追踪了50岁以上人群的健康趋势。该数据集提供了"参与者临终偏好的全面信息,包括有关CPR的问题"。这使得团队能够构建三个模型:一个简单模型、一个基于常用电子健康记录的模型,以及一个更"个性化"的模型。每个模型都成功预测了经历心脏骤停的患者是否需要CPR,准确率高达70%。
Starke同意Truog和Morrison的观点,认为"人类决策代理人仍然是特定情况背景方面的重要来源",并同意AI模型"不应取代决策代理"。
透明度与信任问题
Brender认为,AI系统可以作为讨论的"跳板",为决策者提供考虑哪些数据对患者可能重要的方式。
但他同意Moin的观点,认为如果不透明AI医疗决策系统如何做出决定,AI可能会播下不信任的种子。
Brender想象,如果以聊天机器人界面呈现的AI医疗决策系统导致医生和家庭成员对算法"过于信任",可能会出现噩梦般的场景。这就是为什么如果这项技术最终被部署,透明度和严格测试将至关重要,他说。
"如果一个黑盒算法说祖母不希望复苏,我不知道这是否有帮助,"Brender说,"你需要它是可解释的。"
AI医疗决策的偏见研究缺失
Ahmad同意人类应该始终参与其中。他强调他并不急于部署他的AI模型,这些模型仍处于概念阶段。使他的工作复杂化的是,目前很少有研究探索使用AI医疗决策系统中的偏见和公平性。
Ahmad旨在通过一篇即将发布的预印本论文来填补这一空白,该论文概述了各种公平观念,然后检查不同道德传统中的公平性。Ahmad最终建议,使用AI医疗决策系统的公平性"超越结果的平等性,包括道德代表性、对患者价值观、关系和世界观的忠实度"。
"核心问题不仅是'模型是否有偏见?',而是'模型存在于谁的道德宇宙中?'"Ahmad写道,并举例说明:
考虑以下情况:两个具有相似临床特征的患者可能在道德推理上有所不同,一个由自主性指导,另一个由家庭或宗教责任指导。在算法术语中对他们进行"相似"处理将构成道德抹杀。个体公平性需要纳入价值敏感特征,如记录的精神偏好或关于舒适度的陈述,同时不侵犯隐私。
长期挑战与未来展望
Ahmad指出,AI模型在"某种程度上是脆弱的",如果问题的表述略有不同或模型不理解的方式"巧妙",可能会给出"完全不同的答案"。
Ahmad并不回避他所谓的"工程价值观问题"。为了更好地了解其他研究人员如何处理这个问题以及患者对AI医疗决策系统的期望,Ahmad最近参加了在达拉斯举行的福音派基督教AI会议。在那里,似乎很明显,在一个AI医疗决策系统整合到医院中的未来,一些患者可能对大型语言模型(LLM)能够复制他们内心真理的程度抱有很高的期望。
"真正突出的一点是,人们——特别是当涉及到LLM时——有很多讨论围绕拥有反映其价值观的LLM版本,"Ahmad说。
Starke认为,从临床角度来看,理想情况下应该基于最容易获得的电子健康记录构建模型。但为了最好地服务患者,他同意Ahmad的观点,认为"理想的数据集应该是大型、多样化、纵向和专门构建的"。
"它将结合人口统计和临床变量、记录的预先护理计划数据、患者记录的价值观和目标,以及特定决策的背景信息,"他说。 "包括文本和对话数据可以进一步提高模型理解偏好产生和变化原因的能力,而不仅仅是患者在单一时间点的偏好是什么。"
Ahmad建议未来的研究可以侧重于临床试验中验证公平框架,通过模拟评估道德权衡,以及探索跨文化生物伦理学如何与AI设计相结合。
只有到那时,AI医疗决策系统才可能准备好被部署,但仅作为"决策辅助工具",Ahmad写道。任何"有争议的输出"应该自动"触发伦理审查",Ahmad写道,得出结论"最公平的AI医疗决策系统是邀请对话、承认怀疑并为关怀留出空间的系统"。
"AI不会免除我们的责任"
Ahmad希望在未来五年内在华盛顿大学各个站点测试他的概念模型,这将提供"某种量化这项技术有多好的方法",他说。
"在那之后,我认为社会将集体决定如何整合或不整合这样的东西,"Ahmad说。
在他的论文中,他警告不要使用可能被解释为患者模拟的聊天机器人AI医疗决策系统,预测未来的模型甚至可能用患者的声音说话,并暗示这些工具的"舒适和熟悉"可能会模糊"辅助和情感操纵之间的界限"。
Starke同意需要更多研究和患者与医生之间的"更丰富的对话"。
"我们应该谨慎不要不分青红皂白地将AI作为解决方案应用于寻找问题的领域,"Starke说。"AI不会免除我们做出艰难的伦理决定的责任,特别是关于生死的决定。"
Truog告诉Ars,他"可以想象AI有一天可以为决策代理人提供一些有趣的信息,并且会有所帮助"。
"但所有这些途径的一个问题是...它们都将是否进行CPR的决定框定为二元选择,无论背景或心脏骤停的具体情况如何,"Truog的社论说。"在现实世界中,当患者失去意识时,他们是否希望接受CPR这个问题的答案,在几乎所有情况下,都是'视情况而定'。"
当Truog思考他可能面临的情境时,他知道他不仅会考虑自己的价值观、健康和生活质量。他的选择"可能取决于我的孩子们怎么想"或"财务后果会如何影响我预后的细节",他告诉Ars。
"我希望我的妻子或另一个非常了解我的人来做这些决定,"Truog说。"我不希望有人说,'嗯,这是AI告诉我们的。'"
结论:技术与人文的平衡
AI医疗决策系统的探索代表了医疗技术的前沿,但也引发了深刻的伦理问题。在生死攸关的决策中,技术如何尊重人类价值观和文化差异?AI能否真正理解每个人独特的生命意义?
当前的研究表明,AI可以作为医疗决策的有用辅助工具,提供数据支持和预测分析。然而,它不能替代人类决策者基于对患者的了解、情感联系和道德判断所做出的决定。
未来的发展需要在技术创新与人文关怀之间找到平衡。AI医疗决策系统应当作为增强人类决策能力的工具,而非替代品。透明的算法、严格的伦理审查、多元化的数据训练以及持续的公众参与,将是确保这一技术负责任发展的关键。
在生命的最后阶段,我们需要的不仅是一个能够分析数据的算法,更是一个能够理解人性、尊重尊严、提供安慰的医疗体系。AI或许能够提供技术支持,但做出最终决定的,仍应是对患者有深入了解和关怀的人。









