在医疗领域,人工智能正以前所未有的速度渗透各个角落。从辅助诊断到治疗方案推荐,AI技术展现出巨大的潜力。然而,一个极具争议且高风险的应用浮出水面:AI能否成为患者无法表达意愿时的"数字替身",辅助医生和家属做出生死攸关的医疗决策?
前沿探索:AI医疗决策助手的研究现状
华盛顿大学UW医学中心的Muhammad Aurangzeb Ahmad研究员正引领这项前沿研究。他的目标是创建所谓的"AI医疗决策助手"——一种基于患者数据训练的AI系统,能够在患者无法表达自身意愿时,预测他们对生命治疗措施(如心肺复苏CPR、呼吸机使用等)的偏好。
"这是非常新的领域,所以很少有人从事这方面的研究,"Ahmad向Ars Technica表示。他的研究基于Harborview医疗中心的患者数据,目前处于概念验证阶段,主要目标是测试AI模型预测患者偏好的准确性。
Ahmad的模型目前主要分析医院已收集的数据,包括伤情严重程度、病史、既往医疗选择和人口统计学信息。他希望未来模型能分析文本数据,如患者与医生的对话记录或家人提供的信息。
"使用这些信息,我们将其输入机器学习预测模型,然后在回顾性数据中观察模型的表现,"Ahmad解释道。
技术挑战:AI预测的准确性与局限性
尽管AI展现出预测患者偏好的潜力,但技术挑战依然严峻。Ahmad的目标是开发出能够准确预测患者偏好的模型,准确率达到约三分之二。
然而,临床医生Emily Moin指出,这种评估方法存在根本性问题。"这些决策是动态构建且依赖于上下文的,"Moin说,"如果你在患者恢复后询问他们原本会做什么,这并不能提供准确的预测。"
Moin认为,医疗AI面临的一个主要问题是人们期望它"提供比我们目前能力更好的预测"。但模型正在训练"方便的真相"上,这些数据"不提供有意义的例子让模型学习应用情境"。
更关键的是,对于无法沟通且没有人类代理人的患者,"你永远无法知道所谓的真相是什么,"Moin指出,"这样你就永远无法评估你的偏见,也永远无法评估你的模型表现。"
伦理困境:AI决策的道德边界
AI医疗决策助手引发了一系列深刻的伦理问题。
价值观冲突与文化差异
Ahmad在其预印本论文中探讨了AI医疗决策助手面临的伦理挑战。他提出,公平性不仅包括结果的平等,还应包括"道德表现、对患者价值观、关系和世界观的忠实"。
"核心问题不仅是'模型是否有偏见?',而是'模型 inhabits谁的道德宇宙?'"Ahmad写道。他举例说明,两个临床状况相似的患者可能在道德推理上存在差异,一个以自主为导向,另一个以家庭或宗教责任为导向。在算法上"同样对待"他们将构成道德抹除。
生命价值的算法化
生命终末期决策涉及人类最核心的价值观和尊严。将这样的决定交给算法,引发了关于生命价值是否被过度简化的担忧。
"AI医疗决策助手可能被解释为对患者的模拟,"Ahmad警告道,"未来的模型甚至可能用患者的声音说话,此类工具的'舒适和熟悉感'可能会模糊'辅助和情感操纵之间的界限'。"
临床实践:医生与AI的协作模式
尽管AI技术不断发展,但临床医生普遍认为,AI不应取代人类决策者,而应作为辅助工具。
AI作为决策辅助而非替代
Mount Sinai的R. Sean Morrison医生强调:"AI永远不会取代人类代理人在复苏决策中的角色。"他指出,"关于假设场景的决定与需要实时做出的决定没有相关性。AI无法解决这个根本问题——这不是更好的预测问题。患者的偏好往往只是某个时间点的快照,无法预测未来。"
医生的担忧
医生们对AI医疗决策助手持谨慎态度。Moin担心,"如果患者与AI交谈,实际上可能会阻碍他们与家人进行重要对话。"她引用的研究表明,如果患者填写了预先指示,可能会更少与亲人讨论他们的偏好。
Brender医生则认为,AI医疗决策助手可能最终扮演冗余角色,"做一位好临床医生本来就在做的事情"——询问代理人:"嘿,这个人是谁?他们喜欢做什么?什么给他们的生活带来意义?"
"你需要AI来做这件事吗?"Brender质疑道,"我不太确定。"
公众接受度:信任与透明度的挑战
AI医疗决策助手的实施还面临公众接受度的挑战。
Moin指出:"人们真的讨厌使用算法来决定谁获得护理。"她认为,"这对患者、临床医生或社会都不好。"
她特别担心"无法为自己说话且没有明确亲人"的患者"最容易受到AI医疗决策助手做出错误决定的伤害"。太多的此类错误可能会进一步削弱人们对医疗系统的信任。
透明度与可解释性
Brender强调,AI系统的透明度和可解释性至关重要。"如果一个黑盒算法说祖母不希望复苏,我不知道这是否有帮助,"他说,"你需要它能够解释。"
Ahmad同意人类应该始终参与决策过程。他强调自己并没有急于部署AI模型,目前仍处于概念阶段。他的工作面临的一个复杂因素是目前很少有研究探讨AI医疗决策助手使用中的偏见和公平性。
未来展望:技术发展与伦理框架的平衡
尽管面临诸多挑战,AI医疗决策助手的研究仍在继续。Ahmad计划在未来五年内在华盛顿大学各个站点测试他的概念模型,这将提供"某种方式来量化这项技术有多好"。
"之后,我认为社会需要集体决定如何整合或不整合这样的技术,"Ahmad表示。
跨文化伦理考量
Ahmad最近参加了一个在达拉斯举行的福音派基督教AI会议,以更好地了解其他研究者如何处理这个问题,以及患者对AI医疗决策助手的期望。他注意到,人们尤其希望大型语言模型(LLM)能够反映他们的价值观。
"一个真正突出的问题是——人们,尤其是涉及到LLM时,有很多讨论围绕拥有反映他们价值观的LLM版本,"Ahmond说。
理想的AI医疗决策助手
Starke认为,理想的模型应基于最易获取的电子健康记录,但从临床角度看,"理想的数据集应该是大型、多样化、纵向和专门构建的"。
"它将结合人口统计学和临床变量、记录的预先护理计划数据、患者记录的价值观和目标,以及特定决策的背景信息,"他解释道。
"包括文本和对话数据可以进一步提高模型理解偏好产生和变化原因的能力,而不仅仅是患者在某个时间点的偏好是什么,"Starke补充道。
结论:技术与人文的平衡
AI医疗决策助手的研究引发了关于技术、伦理和人性本质的深刻思考。尽管AI展现出预测患者偏好的潜力,但专家们普遍认为,人类情感、道德判断和伦理考量仍是不可替代的。
"AI不会免除我们做出艰难的伦理决定,特别是涉及生死的决定,"Starke警告道。
Ahmad在其论文中强调,任何"有争议的输出"都应自动"触发伦理审查",并得出结论:"最公平的AI医疗决策助手是邀请对话、承认怀疑并为关怀留出空间的那种。"
在生命终末期决策这一最敏感的医疗领域,技术必须服务于人类尊严和价值观,而非相反。AI医疗决策助手的研究提醒我们,在拥抱技术创新的同时,必须保持对生命敬畏和对人类决策核心价值的坚守。
正如Truog所言:"当我想象自己可能面临的情境时,我知道我不会只考虑自己的价值观、健康状况和生活质量。我的选择可能取决于我的孩子们怎么想,或财务后果会对我的预后细节产生什么影响。"在这个最需要人性光辉的医疗决策领域,AI或许可以提供信息,但永远无法替代人类之间的理解、关爱和共同面对生死的责任。









