在医疗领域,一个前所未有的问题正引发激烈讨论:当患者无法表达自己的医疗意愿时,一个基于AI的"数字替身"是否应该帮助决定患者的生死?随着人工智能技术的飞速发展,这一曾经只存在于科幻小说中的场景,正逐渐成为医疗专业人士和伦理学家们必须面对的现实。
AI替身:从概念到现实
十多年来,研究人员一直思考一个关键问题:人工智能能否帮助预测当医生必须为失去表达能力的患者做出生死攸关的决定时,患者本人可能想要什么?
"这仍然是目前医疗AI领域最高风险的问题之一,"华盛顿大学创伤系的研究员穆罕默德·奥朗格泽布·艾哈迈德(Muhammad Aurangzeb Ahmad)在接受Ars Technica采访时表示。"但随着AI技术的进步,一些专家越来越认为,患者的数字'克隆体'有一天很可能会帮助家人、医生和伦理委员会做出符合患者价值观和目标的临终决定。"
艾哈迈德正尝试改变这一现状,他正在美国一家医疗机构迈出试点AI替身的第一步。"这非常新颖,所以很少有人从事这项研究,"艾哈迈德说。

艾哈迈德是华盛顿大学UW医学与创伤系教职员工合作的驻院研究员。他的研究基于西雅图的港景医疗中心(Harborview Medical Center),这是UW医学健康系统中的一家公立医院。UW医学与"世界上最大的医学研究项目之一"整合在一起,致力于改善公共卫生成果。
艾哈迈德告诉Ars,UW并非专门寻找一位研究员来尝试AI替身,但自从他的项目提案被接受后,他今年大部分时间都处于"概念阶段",致力于基于港景患者数据测试AI模型的准确性。
"目前,我的模型专注于分析港景已经收集的数据,如伤害严重程度、病史、既往医疗选择和人口统计信息,"艾哈迈德解释道。"我们使用这些信息,将其输入机器学习预测模型,然后在回顾性数据中观察模型的表现如何。"
技术挑战与局限
尽管AI替身的概念引人关注,但研究人员面临着诸多技术挑战。艾哈迈德表示,他模型测试的主要局限性在于,只有当患者存活并能够后来确认模型做出了正确选择时,他才能验证模型的准确性。
"准确性测试随后可以扩展到网络中的其他设施,目标是开发能够准确预测患者偏好的AI替身,准确率达到三分之二左右,"艾哈迈德说。
然而,宾夕法尼亚州重症监护室的医生艾米莉·莫因(Emily Moin)提出了质疑。"这些决策是动态构建的,且依赖于具体情境,"莫因告诉Ars。"如果你根据患者在康复后询问他们康复前会怎么说来评估模型的表现,那将无法为你提供准确的代表。"
莫因指出,医疗AI的一个大问题是,人们期望它"提供比我们目前能够生成的更好的预测"。但是,这些模型正在训练"方便的 ground truth",这些 truth 并不"为模型提供有意义的学习情境示例"。
"我认为他们实际上会希望部署这个模型来帮助为未被代表的、无法沟通的、没有代理人的患者做决定,"莫因说,"但恰恰是这些患者,你永远无法知道所谓的 ground truth 是什么,然后你永远无法评估你的偏见,也永远无法评估你的模型性能。"
伦理困境:AI能理解人类价值观吗?
在医疗决策中,尤其是涉及生死抉择时,理解患者的价值观和信仰至关重要。然而,AI系统能否真正捕捉到人类价值观的复杂性?
艾哈迈德承认,"当AI模型试图计算像人的价值观和信仰这样复杂的东西时,事情会变得非常复杂,"他告诉Ars,"这里有社会规范,然后还有特定宗教群体内的规范。"
艾哈迈德举了一个"极端例子":想象一下,如果医生试图决定是否应该让一位卷入事故的孕妇脱离呼吸机,因为过时的记录显示她曾标记这是她的偏好。她的伴侣或家人等人类代理人可能会代表她主张继续使用呼吸机,特别是如果这位妇女持亲生命观点。
"没有人类代理人,医生可能会转向AI寻求帮助做决定,但前提是AI系统能够基于从数据、临床变量、人口统计信息、临床笔记中的语言标记以及可能的患者数字足迹中学到的模式来捕捉患者的价值观和信仰,"艾哈迈德的论文解释道。

文化与社会因素
文化因素在医疗决策中扮演着重要角色。莫因指出,美国文化已经从"非常注重患者自主权"转变为"更多是共享决策,有时以家庭和社区为中心的视角"作为做出这些困难决策的标准。
"医生了解患者的时间越长,患者的健康团队与家庭成员进行的对话越多,健康系统就越有可能能够随着时间的推移调整以尊重患者的愿望,"莫因建议道。
这一理念呼应了艾哈迈德的"理想"AI替身模型。但莫因表示,如果患者与AI交谈,实际上可能会 discourage 他们与家人进行重要对话。研究发现,如果患者填写预先指示,可能会更难确定他们的偏好,因为患者可能不太可能与亲人讨论他们的偏好。
AI替身与人类决策者的关系
尽管AI替身技术有其潜力,但医生们普遍认为AI不应替代人类决策者,特别是在涉及生死抉择的敏感领域。
上个月,生物伦理学家罗伯特·特鲁格(Robert Truog)与致力于推进旨在改善患有危及生命疾病人群生活质量的姑息治疗的医生R.肖恩·莫里森(R. Sean Morrison)共同强调,在复苏决定中,AI永远不应替代人类代理人。
"关于假设场景的决定与需要实时做出的决定没有相关性,"莫里森告诉Ars。"AI无法解决这个根本问题——这不是更好的预测问题。患者的偏好通常代表一个时间点的快照,根本无法预测未来。"
然而,慕尼黑工业大学人工智能和神经伦理学主席的医生兼高级研究助理格奥尔格·斯塔克(Georg Starke)共同发表了一项概念验证研究,显示三种AI模型在预测患者偏好方面的平均表现优于人类代理人。
斯塔克的研究依赖于来自瑞士受访者现有数据,这些受访者参与了跟踪50岁以上人群健康趋势的欧洲调查。该数据集提供了"参与者临终偏好的全面信息,包括关于CPR的问题"。这使得团队能够构建三种模型:一个简单模型,一个基于常用电子健康记录的模型,以及一个更"个性化"的模型。每个模型都成功预测了 experiencing 心脏骤停的患者是否需要CPR,准确率高达70%。
尽管如此,斯塔克团队强调,"人类代理人仍然是特定情况背景方面的重要信息来源",特别是对于患有痴呆症的患者,并同意AI模型"不应替代代理决策"。
公众信任与透明度
在AI替身技术可能被广泛采用之前,建立公众信任至关重要。然而,研究表明,人们对算法决定谁获得护理感到强烈反感。
"我不认为这对患者、临床医生或社会有好处,"莫因说。她特别担心"无法为自己说话且没有明确亲人"的患者最容易受到AI替身做出错误决定的伤害。太多的此类错误可能会进一步削弱人们对医疗系统的信任。
特维·布伦德(Teva Brender)是旧金山一家退伍军人医疗中心的住院医师,他告诉Ars,这些决策对所有人来说都是"充满心理社会风险的"。这就是为什么像艾哈迈德这样的测试很重要,他说。
布伦德认为,AI系统最好可以作为讨论的"发射台",为代理人提供一种考虑哪些数据对患者重要的方式。但他同意莫因的观点,如果不透明AI替身如何做出决定,AI可能会播下不信任的种子。
"如果一个黑盒算法说祖母不希望复苏,我不知道这是否有帮助,"布伦德说。"你需要它是可解释的。"
未来展望
艾哈迈德希望在未来五年内在他的概念模型在各种UW站点进行测试,这将提供"某种方式来量化这项技术有多好"。之后,他认为"关于我们作为一个社会如何决定是否整合或不整合这样的东西,需要有一个集体决定"。
在论文中,他警告了可能被解释为患者模拟的聊天机器人AI替身,预测未来的模型甚至可能用患者的声音说话,并暗示此类工具的"舒适和熟悉"可能会模糊"辅助和情感操纵之间的界限"。
斯塔克同意需要更多研究和患者与医生之间的"更丰富的对话"。"我们应该谨慎不要不加区别地将AI作为寻找问题的解决方案来应用,"斯塔克说。"AI不会免除我们做出艰难伦理决策的责任,特别是涉及生死的决策。"
特鲁格告诉Ars,他"可以想象AI有一天可以为代理人决策者提供一些有趣的信息,并且会有所帮助"。但"所有这些途径的一个问题是...它们都将是否进行CPR的决定框定为二元选择,无论背景或心脏骤停的具体情况如何"。在现实世界中,"当患者失去意识时,他们是否希望进行CPR这个问题的答案,在几乎所有情况下都是'视情况而定'。"
当特鲁格思考自己可能面临的情况时,他知道他不仅会考虑自己的价值观、健康和生活质量。他的选择可能取决于"我的孩子们怎么想"或"财务后果将对我的预后细节产生什么影响"。"我希望我的妻子或另一个非常了解我的人来做这些决定,"特鲁格说。"我不希望有人说:'嗯,这是AI告诉我们的。'"
结论
AI替身技术在医疗决策中的应用代表着医学与人工智能交叉领域的前沿探索。尽管技术显示出一定潜力,但专家们普遍认为,在涉及生死抉择的敏感领域,AI应作为辅助工具而非替代人类决策者。
患者的价值观和信仰是复杂且动态的,难以完全通过算法捕捉。同时,文化背景、个人经历和情感因素在医疗决策中扮演着不可替代的角色。AI系统可能提供数据支持,但无法完全理解人类决策的微妙之处。
未来,AI替身技术可能会在特定场景中发挥作用,特别是在为没有人类代理人的患者提供决策支持方面。然而,这需要严格的伦理审查、透明度保证和持续的公众对话。最重要的是,医疗决策的核心应始终尊重患者的自主权和尊严,而非简单地追求技术效率。
正如艾哈迈德所强调的:"最公平的AI替身是邀请对话、承认怀疑并为关怀留出空间的那一个。"








