在医疗科技的前沿领域,一个极具挑战性且充满伦理争议的问题正逐渐浮出水面:当患者无法表达自己的意愿时,是否应该让一个基于人工智能的"数字替身"来帮助决定他们的生死?
这一问题的提出并非空穴来风。随着AI技术的飞速发展,研究人员已经探索了十多年,试图让人工智能能够预测当医生必须为失去表达能力患者做出生命或死亡决定时,这些患者可能想要什么。这已成为当今医疗AI领域最高风险的问题之一。
AI生命决策代理的兴起
华盛顿大学UW医学中心的Muhammad Aurangzeb Ahmad研究员正致力于改变这一现状,他正在美国一家医疗机构迈出试点AI生命决策代理的第一步。
"这非常新颖,所以很少有人从事这项研究,"Ahmad告诉Ars技术媒体。"UW医学中心并非专门寻找一位研究员来试验AI生命决策代理,但我的项目提案被接受后,今年大部分时间我都在概念阶段工作,致力于测试基于Harborview患者数据的AI模型的准确性。"

Ahmad的研究基于西雅图的Harborview医疗中心,这是UW医学系统的一家公立医院。目前,他的模型专注于分析Harborview已经收集的数据,如伤害严重程度、病史、既往医疗选择和人口统计信息。
"我们使用这些信息,将其输入机器学习预测模型,然后在回顾性数据中观察模型的表现如何,"Ahmad解释道。
然而,Ahmad也承认,这项测试的主要限制在于,只有当患者存活并能够确认模型做出了正确选择时,他才能验证模型的准确性。他期望AI生命决策代理最终不会成为一个完美的模型,而是一套经过严格测试的系统,医生和亲人可以在评估关于患者在关键时刻想要的所有已知信息时参考。
技术挑战与局限
偏好的不稳定性
医生们长期以来一直面临一个难题:当患者无法为自己发声时,如何确定他们的意愿。宾夕法尼亚州重症监护室的医生Emily Moin指出,患者的偏好往往是不稳定的,有时会在几天内发生变化。
"这些决策是动态构建的,且依赖于上下文,"Moin解释道。"如果你在患者康复后询问他们康复前会说什么,来评估模型的表现,那将无法提供准确的评估。"
此外,一些患者在接受救命治疗后报告说他们的偏好发生了变化,因为他们现在知道了可以预期什么。这些因素都使得AI准确预测患者偏好变得异常困难。
数据与算法的局限性
Moin认为,医疗AI的一个大问题是人们期望它"提供比我们目前能够生成的更好的预测"。但她说,这些模型正在训练"便利的地面真相",这些真相并不"为模型提供有意义的例子来学习模型将被应用的情况"。
"我猜他们实际上会希望部署这个模型来帮助无法沟通、没有代理人的患者做决定,"Moin说,"但恰恰是这些患者,你永远无法知道所谓的'地面真相'是什么,然后你永远无法评估你的偏见,也永远无法评估你的模型表现。"

文化与道德考量
Ahmad在其研究中探讨了AI生命决策代理的公平性问题,指出公平性不仅包括结果的平等,还包括对患者价值观、关系和世界观的忠实度。
"核心问题不仅变成了'模型是否有偏见?',而是'模型居住在谁的道德宇宙中?'"Ahmad在其论文中举例说明,"两个具有相似临床特征的患者可能在道德推理上有所不同,一个由自主性指导,另一个由家庭或宗教责任指导。在算法意义上'类似'地对待他们将构成道德抹杀。"
他举了一个极端例子:如果一名孕妇在一次事故中需要被移除呼吸机,但过时的记录显示她曾标记这是她的偏好,而如果这名妇女持有亲生命观点,她的伴侣或家人可能会为她代言,要求继续使用呼吸机。
伦理争议与社会影响
人类代理人的不可替代性
尽管AI技术在某些方面显示出潜力,但多位医学专家警告说,AI永远不应取代人类代理人在复苏决策中的角色。
"关于假设场景的决定与需要在实时做出的决定没有相关性,"致力于推进旨在改善患有危及生命疾病人群生活质量的姑息治疗的医生R. Sean Morrison告诉Ars。"AI无法解决这个基本问题——这不是更好的预测问题。患者的偏好通常只是时间上的一个快照,根本无法预测未来。"
信任与透明度问题
旧金山退伍军人医疗中心的医院医生Teva Brender担心,如果以聊天机器人界面呈现的AI生命决策代理会导致医生和家庭成员对算法"过于信任"。
"如果一个黑盒算法说祖母不想复苏,我不知道这是否有帮助,"Brender说,"你需要它是可解释的。"
社会文化因素
Moin指出,美国的文化已经从"非常专注于患者自主权"转变为"更多是共享决策,有时是家庭和社区为中心的视角",作为做出这些困难决策的标准。
"如果患者与AI交谈,它实际上可能会阻碍他们与家人进行重要对话,"Moin警告说。研究发现,如果患者填写预先指示,可能会更难确定他们的偏好,因为患者可能不太可能与亲人讨论他们的偏好。
未来发展与平衡之道
尽管存在诸多挑战,Ahmad仍然计划在未来五年内在UW的各个站点测试他的概念模型,这将提供"某种量化这项技术好坏的方法"。
"在那之后,我认为社会需要集体决定如何整合或不整合这样的东西,"Ahmad说。

AI作为决策辅助工具
Ahmad在其论文中警告不要将聊天机器人式的AI生命决策代理解释为对患者本人的模拟,预测未来的模型甚至可能用患者的声音说话,并建议此类工具的"舒适度和熟悉度"可能会模糊"辅助和情感操纵之间的界限"。
他认为,AI生命决策代理只有在作为"决策辅助工具"时才可能准备好部署,任何"有争议的输出"应该自动"触发伦理审查"。
更丰富的医患对话
Starke同意需要更多的研究和患者与医生之间"更丰富的对话"。
"我们应该谨慎不要不加区分地将AI作为寻找问题的解决方案来应用,"Starke说,"AI不会免除我们做出艰难的伦理决定,特别是关于生与死的决定。"
多维度考量
生物伦理学专家Robert Truog告诉Ars,他"可以想象AI有一天可以"为代理决策者提供一些有趣的信息,并会有所帮助。"
但Truog认为,所有这些路径都存在一个问题:"它们都将是否进行CPR的决定框定为二元选择,无论上下文或心脏骤停的情况如何。"在现实世界中,当患者失去知觉时,"在几乎所有情况下","患者是否希望进行CPR"的答案是"视情况而定"。
结论:技术与人性的平衡
AI生命决策代理的探索反映了医疗技术发展中一个永恒的张力:如何在追求技术进步的同时,保持对人性尊严和伦理价值的尊重。
虽然AI可能在某些方面为医疗决策提供有价值的辅助,但它永远无法完全取代人类在生死抉择中的核心作用。患者的偏好是动态的、复杂的,深深植根于其个人经历、文化背景和价值体系中。这些因素很难被算法完全捕捉和理解。
未来的发展方向或许不是让AI取代人类决策者,而是将其作为一种辅助工具,增强人类决策者的判断能力,同时确保技术的透明度、可解释性和公平性。正如Ahmad所言,"最公平的AI生命决策代理是那些邀请对话、承认怀疑并为关怀留下空间的东西。"
在生与死这样终极的问题上,技术应该服务于人性,而不是相反。AI生命决策代理的研究提醒我们,无论技术如何发展,医疗的本质始终是对人的关怀与尊重。









