在医疗领域,一个极具争议的议题正逐渐浮出水面:当患者无法表达自己的医疗意愿时,人工智能能否成为他们的"数字替身",辅助医疗团队做出生死攸关的决策?
技术探索:AI医疗代理的雏形
华盛顿大学的研究人员穆罕默德·奥朗格泽布·艾哈迈德(Muhammad Aurangzeb Ahmad)正尝试将这一概念付诸实践。作为创伤科部门的驻院研究员,他正在西雅图港景医疗中心(Harborview Medical Center)开展一项开创性研究,旨在开发所谓的"AI医疗代理"系统。
"这是非常新的领域,所以很少有人从事这项研究,"艾哈迈德向Ars Technica表示。他的研究目前处于概念阶段,主要工作是测试基于港景医疗中心患者数据的AI模型准确性。
艾哈迈德的模型目前专注于分析医院已经收集的数据,包括伤情严重程度、病史、既往医疗选择和人口统计信息。"我们利用这些信息,将其输入机器学习预测模型,然后在回顾性数据中观察模型的表现如何,"他解释道。

技术挑战:准确性与验证难题
这项研究面临的主要挑战在于验证模型的准确性。艾哈迈德指出,只有当患者存活并能够确认模型做出了正确选择时,他才能验证模型的准确性。这构成了一个悖论:要验证AI是否能正确预测患者的生死意愿,首先需要患者活着来确认这一点。
"准确率测试可能会扩展到网络中的其他设施,目标是开发能够准确预测患者偏好的AI医疗代理,准确率达到约三分之二,"艾哈迈德表示。
然而,宾夕法尼亚州重症监护室的医生艾米丽·莫恩(Emily Moin)对此提出了质疑。她指出,这些决策是"动态构建且依赖于上下文的"。"如果你根据患者在康复后询问他们在康复前会怎么说来评估模型的表现,那将无法提供准确的评估,"莫恩解释道。
伦理困境:AI能理解人类价值观吗?
医疗决策,尤其是生命终结相关的决策,往往涉及复杂的价值观和情感因素。莫恩强调,这些决策需要"真正了解患者意愿"的人类代理人参与。
"当我们处于快速决策的情况,而面前有一位已经去世的患者时,我们会倾向于提供CPR(心肺复苏),直到我们能够做出临床判断,认为这种努力不再必要,或者直到我们能够与决策代理人沟通,"莫恩解释道。
艾哈迈德承认,AI医疗代理不会是完美的模型,而是一套经过严格测试的系统,医生和亲人可以在评估所有已知信息时参考,以判断患者在关键时刻可能想要什么。
"在这个领域,从业者更为保守,我认为这是理所当然的,"艾哈迈德表示。
社会文化因素:决策模式的转变
莫恩指出,美国的文化已经从"非常注重患者自主权"转变为"更多采用共享决策模式,有时以家庭和社区为中心"的视角来做出这些艰难的决定。
"医生认识患者的时间越长,患者的健康团队与家庭成员的对话越多,健康系统就越有可能随着时间的推移调整以尊重患者的愿望,"莫恩建议道。
这一理念呼应了艾哈迈德的"理想"AI医疗代理模型。但莫恩警告说,如果患者与AI交谈,实际上可能 discourage 他们与家人进行重要对话。研究发现,如果患者填写了预先指示,可能会更难确定他们的偏好,因为患者可能不太可能与亲人讨论他们的偏好。
技术局限:AI无法替代人类经验
旧金山退伍军人医疗中心的住院医师蒂瓦·布伦德(Teva Brender)认为,这些决策对所有人来说都是"充满心理社会风险的"。他质疑AI医疗代理是否只是做"一个好临床医生本来就会做的事情"。
"魔鬼的视角是,AI医疗代理只是做一个好临床医生本来就会做的,即询问代理人:'嘿,这个人是谁?他们喜欢做什么?什么给他们的生活带来意义?'"布伦德问道,"你需要一个AI来做这件事吗?我不太确定。"
上个月,生物伦理学家罗伯特·特鲁格(Robert Truog)与致力于推进临终关怀的医生R.肖恩·莫里森(R. Sean Morrison)强调,AI永远不应该在复苏决策中取代人类代理人。
"关于假设情景的决定与需要在实时做出的决定没有相关性,"莫里森告诉Ars,"AI无法解决这个根本问题——这不是更好的预测问题。患者的偏好往往代表一个时间点的快照,根本无法预测未来。"
研究进展:AI表现优于人类?
慕尼黑工业大学AI与神经伦理学主席的高级研究助理、医生格奥尔格·斯塔克(Georg Starke)共同发表了一项概念验证研究,显示三种AI模型在预测患者偏好方面的平均表现优于人类代理人。
斯塔克的研究依赖于欧洲一项追踪50岁以上人口健康趋势的调查中瑞士受访者的现有数据。该数据集提供了"参与者临终偏好的全面信息,包括有关CPR的问题"。这使得团队能够构建三种模型:一个简单模型,一个基于常用电子健康记录的模型,以及一个更"个性化"的模型。每个模型都成功预测了经历心脏骤停的患者是否需要CPR,准确率高达70%。
然而,斯塔克强调,AI模型仅依赖"准确性"存在一个关键局限性——特别是如果这种"准确性"是通过偶然或纯粹匹配个人无法控制的人口统计数据模式实现的——那么输出不一定反映"自主选择"。
透明度与信任:黑盒算法的风险
布伦德认为,AI系统可以作为讨论的"起点",让代理人考虑哪些数据对患者可能很重要。
但他同意莫恩的观点,如果不透明AI医疗代理如何做出决定,AI可能会播下不信任的种子。"如果一个黑盒算法说祖母不希望复苏,我不知道这是否有帮助,"布伦德说,"你需要它是可解释的。"

偏见与公平性:被忽视的研究领域
艾哈迈德同意人类应该始终参与决策循环。他强调,他并没有急于部署AI模型,这些模型仍处于概念阶段。使他的工作复杂化的是,目前很少有研究探讨AI医疗代理使用中的偏见和公平性问题。
艾哈迈德计划在本周发布一篇预印本论文,该论文概述了各种公平观念,然后考察了不同道德传统中的公平性。最终,艾哈迈德建议,使用AI医疗代理的公平性"超越了结果的平等,涵盖了道德代表性、对患者价值观、关系和世界观的忠诚"。
"核心问题不仅是'模型是否有偏见?',而是'模型的道德宇宙属于谁?'"艾哈迈德写道。
未来展望:AI作为决策辅助工具
艾哈迈德预计,这项技术可能需要十多年时间才能部署给患者,因为AI模型难以训练来计算像人的价值观和信仰这样复杂的东西。
"事情变得真正复杂的地方在于,有社会规范,然后特定宗教群体内部也有规范,"艾哈迈德说。
斯塔克认为,从临床角度来看,理想情况下应基于最易获取的电子健康记录构建模型。但为了最好地服务患者,他同意艾哈迈德的看法,认为"理想的数据集应该是大型、多样化、纵向的,并且是专门构建的"。
结论:AI不能免除我们的责任
艾哈迈德希望在未来五年内在华盛顿大学的各个站点测试他的概念模型,这将提供"某种量化这项技术有多好的方法"。
"在那之后,我认为社会需要集体决定如何整合或不整合这样的东西,"艾哈迈德说。
特鲁格告诉Ars,他"可以想象AI有一天可以为决策代理人提供一些有趣的信息,并且会有所帮助"。
"但所有这些途径的一个问题是...它们都将是否进行CPR的决定框定为二元选择,无论上下文或心脏骤停的具体情况如何,"特鲁格的社论说。"在现实世界中,当患者失去意识时,他们是否希望进行CPR这个问题的答案,在几乎所有情况下,都是'视情况而定'。"
当特鲁格思考自己可能陷入的情况时,他知道他不仅会考虑自己的价值观、健康和生活质量。他的选择可能取决于"我的孩子们怎么想"或"我的预后细节对财务后果的影响",他告诉Ars。
"我希望我的妻子或另一个非常了解我的人来做这些决定,"特鲁格说,"我不希望有人说:'嗯,这是AI告诉我们的。'"
技术与伦理的平衡
AI医疗代理技术的发展引发了深刻的伦理问题。虽然AI可能在某些方面提供帮助,但它无法替代人类在医疗决策中的核心作用——理解患者的价值观、情感和生活背景。技术的进步必须伴随着伦理框架的建立,确保AI作为辅助工具而非决策者。
在生死攸关的医疗决策中,我们需要思考:当算法开始影响生死,人类的责任与尊严将如何维系?答案或许在于将AI视为增强人类判断的工具,而非替代品,同时确保技术的透明、公平和可解释性。
最终,无论技术如何发展,医疗决策的本质仍然是人类之间的互动——医生、患者和代理人之间的信任与理解。AI或许能提供数据支持,但无法复制人类在生命终结时刻所需的同理心、智慧和道德敏感性。











