AI替身决策生死:医疗AI伦理困境与未来展望

1

在医疗领域,一个前所未有的伦理问题正浮出水面:当患者无法表达自己的意愿时,一个基于个人数据的AI数字替身是否应该参与决定患者的生死?这一议题不仅关乎技术的边界,更触及了人类尊严、自主权和生命本质的深刻思考。

AI替身决策系统的研发现状

华盛顿大学UW医学中心的Muhammad Aurangzeb Ahmad正在领导一项开创性研究,旨在测试所谓的"AI替身"在医疗决策中的应用。这项研究基于Harborview医疗中心的患者数据,通过机器学习模型分析患者的伤情严重程度、病史、既往医疗选择和人口统计信息,以预测患者在无法自主决策时的偏好。

"这是非常新的领域,所以很少有人从事这项研究,"Ahmad告诉Ars。目前,他的研究仍处于概念阶段,尚未有患者实际接触这些模型。UW医学中心的发言人Susan Gregg表示,在系统推出前还有"大量工作需要完成",并且需要经过"多阶段审查流程"。

Ahmad设想,未来的AI替身系统还将分析文本数据,可能包括患者与医生交谈的记录,以及家人提供的聊天或短信内容。在最"理想"的形式中,患者在整个生命周期中与AI系统互动,提供反馈以随着年龄增长不断完善模型。

AI医疗决策

AI替身决策系统的研发引发医疗伦理讨论

医学伦理挑战

人类决策者不可替代

尽管AI技术在预测患者偏好方面展现出一定潜力,但多位医学专家强调,人类决策者的角色不可替代。Mount Sinai的R. Sean Morrison教授强调:"关于假设情景的决策与需要实时做出的决策没有关联。AI无法解决这个根本问题——这不是更好的预测问题。患者的偏好往往代表了一个时间点的快照,根本无法预测未来。"

Morrison与生物伦理学专家Robert Truog共同撰文强调,AI永远不应该在复苏决策中取代人类决策者。他们认为,患者的偏好往往是特定情境下的产物,AI模型无法捕捉这种动态性和情境依赖性。

文化价值观的冲突

Ahmad的研究面临的一个核心挑战是如何捕捉患者的价值观和信仰。他举例说,考虑一个极端情况:一名孕妇在事故中受伤,过时的记录显示她曾标记不愿使用呼吸机。但如果她持有亲生命观点,她的伴侣或家人可能会为她争取继续使用呼吸机。

"事情变得非常复杂的地方在于,这里有社会规范,特定宗教群体内部也有规范,"Ahmad解释道。AI系统需要基于"从数据、临床变量、人口统计信息、临床笔记中的语言标记以及患者的数字足迹中学习到的模式"来捕捉患者的价值观和信仰。

技术局限性

预测准确性的争议

虽然Georg Starke等人的研究表明,AI模型在预测患者偏好方面的准确率可达70%,高于人类决策者,但这种准确性存在局限性。

宾夕法尼亚州重症监护室的医生Emily Moin指出,医学AI的一个大问题是人们期望它"提供比我们目前能够生成的更好的预测"。但这些模型是在"方便的真相"上训练的,并不"为模型提供有意义的学习示例"。

"这些决定是动态构建的,且依赖于上下文,"Moin说。"如果你通过询问患者康复后他们原本会说的话来评估模型性能,那将无法提供准确的代表。"

无真实基准的困境

Moin特别担心,那些"无法为自己说话且没有明确亲人"的患者将成为"最容易受到AI替身错误决定伤害"的人群。对于这些患者,"所谓的真相永远无法知晓",因此"永远无法评估偏见和模型性能"。

医疗AI伦理讨论

医疗专家对AI替身决策系统的伦理担忧

社会接受度与文化因素

从患者自主到共享决策

Moin指出,美国文化已经从"非常关注患者自主权"转向"更多采用共享决策模式,有时以家庭和社区为中心"的视角。这种文化转变意味着AI替身的设计必须考虑家庭和社区因素。

过度依赖的风险

Moin担心,如果患者与AI交谈,可能会实际上阻碍他们与家人进行重要对话。研究发现,如果患者填写预先指示,可能会更难确定他们的偏好,因为患者可能不太可能与亲人讨论他们的偏好。

"我可以想象一个场景,比如医生一天内要看24名危重患者,而家人不愿坐下来谈话,"Moin说。"所以,是的,所有相关方可能会默认采用捷径,即整合该模型提供的信息。"

透明度与解释性

San Francisco退伍军人医疗中心的医院医生Teva Brender认为,AI系统可以作为讨论的"跳板",为决策者提供可能对患者重要的数据考虑因素。

但他同意Moin的观点,如果AI替身决策过程缺乏透明度,AI可能会造成不信任。"如果一个黑盒算法说祖母不希望复苏,我不知道这是否有帮助,"Brender说。"你需要它是可解释的。"

Ahmad也同意人类应该始终参与决策过程。他强调自己没有急于部署AI模型,目前仍处于概念阶段。他的研究面临的一个复杂因素是目前很少有研究探讨AI替身使用中的偏见和公平性。

未来展望

AI作为决策辅助而非替代

专家们普遍认为,即使技术成熟,AI替身也不应取代人类决策者,而应仅作为决策辅助工具。Ahmad在他的论文中警告,应避免那些可能被解释为患者模拟的聊天机器人AI替身,预测未来的模型甚至可能用患者的声音说话,这类工具的"舒适性和熟悉性"可能会模糊"辅助和情感操纵之间的界限"。

长期发展路径

Ahmad希望在未来的五年内在UW的各个站点测试他的概念模型,这将提供"某种量化这项技术好坏的方法"。之后,他认为社会需要集体决定如何整合或不整合这类技术。

Starke同意需要更多研究和患者与医生之间"更丰富的对话"。"我们应该谨慎不要 indiscriminately 将AI作为寻找问题的解决方案,"他说。"AI不会免除我们做出艰难伦理决策的责任,尤其是关于生死的决策。"

结论

AI替身决策生死的问题代表了医疗AI应用中最具挑战性的伦理前沿之一。虽然技术展现出一定潜力,但人类决策者的角色、文化价值观的复杂性、预测的局限性以及社会接受度等因素都表明,AI应仅作为辅助工具而非最终决策者。

正如Truog所言:"AI不会免除我们做出艰难伦理决策的责任。"在生死攸关的医疗决策中,技术的辅助固然重要,但人类同理心、道德判断和人际关系的价值不可替代。未来的发展方向应当是确保AI增强而非削弱医疗决策中的人文关怀,让技术与伦理并行发展,共同服务于患者的最佳利益。