在医疗领域,一个前所未有的伦理挑战正在浮现:当患者无法表达自己的意愿时,一个基于人工智能的数字替身是否应该参与决定患者的生死?这一问题触及了医学伦理、人工智能技术和人类价值观的核心,引发了医学专家、AI研究人员和伦理学者的深刻思考。
AI替身决策的兴起与现状
"这非常新颖,所以几乎很少有人在做这项工作,"华盛顿大学UW医学中心的穆罕默德·奥朗格泽布·艾哈迈德(Ahmad)告诉Ars Technica。作为创伤部门的研究员,艾哈迈德正致力于在美国医疗机构试点所谓的"AI替身"技术,以帮助医生和家属在患者无法表达意愿时做出符合其价值观和目标的医疗决策。
艾哈迈德的研究基于西雅图港景医疗中心的患者数据,目前仍处于"概念阶段"。他的模型主要分析医院已收集的数据,如损伤严重程度、病史、既往医疗选择和人口统计信息。"我们使用这些信息,输入机器学习预测模型,然后在回顾性数据中观察模型的表现如何,"艾哈迈德解释道。
目前,还没有患者与艾哈迈德的模型互动过。UW医学发言人苏珊·格雷格表示,在推出之前仍需完成大量工作,该系统将经过多阶段审查过程后才会获批。"我们还没有在港景医疗中心登记任何患者,"艾哈迈德确认道,"我们仍处于确定范围和需考虑的理论考量阶段。考虑到涉及的挑战,这项技术还需要一段时间才能真正落地。"
技术可行性与局限性
艾哈迈德的模型目标是能够准确预测患者偏好的"三分之二"时间。然而,这一测试的主要局限性在于,只有在患者存活并随后确认模型做出了正确选择时,他才能验证模型的准确性。此外,艾哈迈德设想未来的模型还将分析文本数据,可能来自患者与医生的记录对话,以为其AI替身的预测提供信息。
在技术的"理想"形式中,艾哈迈德看到患者在整个生命过程中与AI系统互动,随着他们在医疗系统中的老龄化,提供反馈以完善模型。"获取相关数据需要时间,"艾哈迈德说。
然而,医学专家对AI替身的准确性提出了质疑。宾夕法尼亚州重症监护室的医生艾米丽·莫因(Ellie Moin)指出,这些决策是"动态构建且依赖于上下文的"。"如果你在患者康复后询问他们原本会说什么,以此来评估模型的表现,那将无法提供准确的评估,"莫因解释道。
莫因还强调了一个关键问题:医疗AI面临的一个大问题是人们期望它"提供比我们目前能够生成的更好的预测"。但这些模型正在训练"方便的地面真相"上,这些真相并不"为模型提供有意义的学习示例",关于模型将被应用的情境。
伦理争议与文化考量
莫因指出,美国文化已经从"非常注重患者自主权"转向"更多采用共享决策模式,有时以家庭和社区为中心"的视角来做出这些艰难的决定。这一转变使得AI替身可能影响患者与家人之间的沟通。
"如果患者与AI交谈,实际上可能阻碍他们与家人进行重要对话,"莫因说。她引用研究发现,如果患者填写预先指示,可能会更难确定他们的偏好,因为患者可能不太可能与亲人讨论他们的偏好。

医疗决策中的伦理困境:当AI参与生死抉择时,如何平衡技术效率与人文关怀?
莫因特别担心"无法为自己发声且没有明确亲人"的患者将"最容易受到AI替身错误决策的伤害"。她认为,太多的此类错误可能会进一步削弱人们对医疗系统的信任。
AI替身与人类替身的比较
去年,旧金山退伍军人医疗中心的医院医生蒂瓦·布伦德(Teva Brender)与人合著了一篇观点文章,指出"家庭为无行为能力患者做决定是多么困难",特别是在老年病学、姑息治疗和重症监护环境中。
布伦德认为,AI替身最终可能扮演冗余角色,导致这种潜在的AI应用可能不受欢迎。"反方观点是,AI替身只是在做一个好的临床医生本来就会做的事情,"布伦德说,"即询问替身:'嘿,这个人是谁?他们喜欢做什么?什么给他们的生活带来意义?'"
"你需要AI来做这件事吗?我不太确定,"布伦德质疑道。
上个月,生物伦理专家罗伯特·特鲁格(Robert Truog)与致力于推进旨在改善生命威胁性疾病患者生活质量的姑息治疗的医生R.肖恩·莫里森(R. Sean Morrison)共同强调,AI绝不应在复苏决策中取代人类替身。
"关于假设场景的决策与需要实时做出的决策没有相关性,"莫里森告诉Ars Technica。"AI无法解决这个根本问题——这不是更好的预测问题。患者的偏好通常只是一个时间点的快照,根本无法预测未来。"
研究发现与挑战
慕尼黑工业大学AI与神经伦理学主席的医生兼高级研究助理格奥尔格·斯塔克(Georg Starke)合作发表了一项概念验证研究,显示三个AI模型在预测患者偏好方面的平均表现优于人类替身。
斯塔克的研究依赖于欧洲调查中瑞士受访者的现有数据,该调查跟踪了50岁以上人群的健康趋势。该数据集提供了"参与者临终偏好的全面信息,包括关于CPR的问题"。这使得他们能够构建三个模型:一个简单模型,一个基于常用电子健康记录的模型,以及一个更"个性化"的模型。每个模型都成功预测了心脏骤停患者是否需要CPR,准确率高达70%。
斯塔克的研究旨在"将长期存在的伦理辩论建立在经验数据的基础上"。"十多年来,人们一直推测使用算法来改善无行为能力患者的临床决策,但没有人展示过是否可以实际设计这样的程序,"斯塔克告诉Ars Technica。"我们的研究旨在测试其可行性,探索其表现如何,确定哪些因素影响模型决策,并引发对该技术的更广泛辩论。"
公平性与偏见问题
艾哈迈德同意人类应始终参与决策过程。他强调他并不急于部署AI模型,这些模型仍处于概念阶段。使他的工作复杂化的是,目前几乎没有研究探讨AI替身使用中的偏见和公平性问题。
艾哈迈德计划在本周发布的一篇预印本论文中开始填补这一空白,该论文概述了各种公平观念,然后检查不同道德传统中的公平性。艾哈迈德建议,使用AI替身的公平性"超越了结果的平等,还包括道德代表性、对患者价值观、关系和世界观的忠实度"。
"核心问题不仅是'模型是否有偏见?',而是'模型存在于谁的道德宇宙中?'"艾哈迈德写道,举例说明:
考虑以下情况:两个具有相似临床特征的患者可能在道德推理上有所不同,一个由自主权指导,另一个由家庭或宗教责任指导。在算法术语中对他们进行"相似"处理将构成道德抹杀。个体公平性需要纳入价值敏感特征,如记录的灵性偏好或关于舒适度的陈述,同时不侵犯隐私。
未来发展与建议
艾哈迈德希望在接下来的五年内在UW的各个站点测试他的概念模型,这将提供"某种方式来量化这项技术有多好"。"之后,我认为社会将集体决定如何整合或不整合这样的东西,"艾哈迈德说。
在他的论文中,他警告了可能被解释为患者模拟的聊天机器人AI替身,预测未来的模型甚至可能用患者的声音说话,并建议这类工具的"舒适和熟悉"可能会模糊"辅助和情感操纵之间的界限"。
斯塔克同意需要更多的研究和患者与医生之间的"更丰富的对话"。"我们应该谨慎不要不加区分地将AI作为寻求问题的解决方案,"斯塔克说。"AI不会免除我们做出艰难的伦理决策,特别是关于生死的决策。"
特鲁格告诉Ars,他"可以想象AI有一天可以为替身决策者提供一些有趣的信息,这会有所帮助"。但他指出,"所有这些途径的一个问题是...它们将是否进行CPR的决定框定为二元选择,无论上下文或心脏骤停的具体情况如何"。在现实世界中,"当患者失去意识时,他们是否愿意接受CPR这个问题的答案,在几乎所有情况下,都是'视情况而定'。"
结论:在技术与人性间寻找平衡
当特鲁格思考自己可能面临的处境时,他知道他不仅会考虑自己的价值观、健康和生活质量。他的选择"可能取决于我的孩子们怎么想"或"财务后果对我预后的细节会有什么影响",他告诉Ars。
"我希望我的妻子或另一个非常了解我的人来做这些决定,"特鲁格说。"我不希望有人说:'嗯,这是AI告诉我们的。'"
AI替身技术的发展代表了医疗AI领域的前沿探索,它既带来了希望也伴随着挑战。在生死抉择这一极其敏感的领域,AI可以提供数据支持和决策辅助,但永远无法替代人类对情感、价值观和复杂社会因素的深刻理解。未来的发展方向应当是在充分尊重患者自主权的基础上,将AI作为医疗决策的辅助工具,而非替代品。同时,建立严格的伦理审查机制、透明的算法决策过程和多元化的文化考量框架,将是确保这一技术在尊重人性尊严的前提下造福患者的关键。










