在医疗领域,人工智能正以前所未有的速度渗透到各个角落。从诊断疾病到制定治疗方案,AI展现出惊人的能力。然而,一个更为复杂且充满伦理争议的问题浮出水面:当患者无法表达自己的意愿时,是否应该允许AI数字替身参与决定患者生死的关键决策?
AI替身医疗决策的兴起
华盛顿大学医学院的研究人员Muhammad Aurangzeb Ahmad正尝试开发能够预测患者偏好的AI模型,这一项目标志着AI替身医疗决策从理论走向实践的初步尝试。"这是非常新颖的领域,所以很少有人从事这项研究,"Ahmad向Ars Technica表示。
Ahmad的研究基于Harborview医疗中心已收集的患者数据,包括伤情严重程度、病史、既往医疗选择和人口统计信息。"我们使用这些信息,将其输入机器学习预测模型,然后在回顾性数据中观察模型的表现如何,"Ahmad解释道。
目前,Ahmad的模型尚未与任何患者互动。UW Medicine发言人Susan Gregg表示,在推出系统前有"大量工作需要完成",并且该系统"将经过多阶段审查流程后才能获批"。
技术挑战与局限性
Ahmad的研究面临多重技术挑战。首先,他只能通过患者存活并事后确认模型做出了正确选择来验证模型准确性。"这只是一个开始,"Ahmad说,"然后准确性测试可以扩展到网络中的其他设施,目标是开发出能够准确预测患者偏好的AI替身,准确率达到约三分之二。"
然而,医学专家Emily Moin指出这种方法存在根本性缺陷。"这些决策是动态构建且依赖于上下文的,"Moin解释道,"如果你基于询问患者康复后他们会在康复前说什么来评估模型性能,那将无法提供准确的评估。"
Moin还强调,医疗AI的一个大问题是人们期望它"提供比我们目前能够生成的更好的预测"。但模型正在训练"方便的地面真相"上,这些真相不"为模型提供有意义的学习示例"。
无人类代理患者的困境
当患者无法表达自己意愿且没有人类代理人时,AI替身似乎可能填补这一空白。但Moin警告说,"这些正是你永远无法知道所谓地面真相的患者,因此你永远无法评估你的偏见,也永远无法评估你的模型性能。"
Ahmad设想未来的模型还将分析文本数据,可能来自患者授权的与医生的录音对话,以告知其AI副本的预测。在最"理想"的形式中,Ahmad看到患者在整个生命过程中与AI系统互动,提供反馈以完善模型。
然而,伦理学家Robert Truog强调:"关于假设场景的决定与需要实时做出的决定没有相关性。"AI无法解决这个根本问题——这不是更好的预测问题。患者的偏好通常只是一个时间点的快照,根本无法预测未来。
文化差异与价值观冲突
Ahmad在其论文中警告了AI替身可能面临的道德挑战。"公平使用AI替身不仅超越结果平等,还包括道德代表、对患者价值观、关系和世界观的忠实,"他写道。
Ahmad提供了一个极端例子:想象一下,如果医生试图决定一名在事故中受伤的孕妇是否应该脱离呼吸机,因为过时的记录显示她曾标记过这一偏好。如果这位女性持有亲生命观点,她的人类代理人(如伴侣或家人)可能会代表她主张继续使用呼吸机。
"这是一个极端例子,"Ahmad说,"但事情变得非常复杂的地方在于,有社会规范,然后有特定宗教团体内的规范。"
AI替身与人类代理的互补关系
尽管存在诸多挑战,一些专家认为AI替身可以与人类代理形成互补关系。Teva Brender认为,AI系统可以最好地作为"讨论的起点",为代理人提供考虑哪些数据对患者可能重要的方式。
然而,Brender同意Moin的观点,如果不透明AI替身如何做出决定,AI可能播下不信任的种子。"如果一个黑盒算法说祖母不希望复苏,我不知道这是否有帮助,"Brender说,"你需要它是可解释的。"
Truog和Morrison在《新英格兰医学杂志》上强调,AI应该"永远不要取代人类代理人在复苏决策中的角色"。他们同意,AI模型"不应取代代理决策",而应"作为决策辅助工具"。
公平性与偏见问题
目前,关于AI替身使用中的偏见和公平性的研究很少。Ahmad正在努力填补这一空白,他即将发布一篇预印本论文,该论文概述了各种公平观念,然后检查不同道德传统中的公平性。
"公平的核心问题不仅是'模型是否有偏见?',而是'模型 inhabits 谁的道德宇宙?'"Ahmad写道。
Ahmad最近参加了一个在德克萨斯州达拉斯举行的福音派基督教AI会议,以更好地了解其他研究人员如何处理这个问题以及患者对AI替身可能有什么期望。"真正突出的一点是,人们——特别是当涉及到大型语言模型时——有很多关于拥有反映其价值观的LLM版本的讨论,"Ahmad说。
未来展望与伦理考量
Ahmad希望在未来五年内在华盛顿大学各个站点测试其概念模型,这将提供"某种方式来量化这项技术有多好"。"在那之后,我认为社会集体决定如何整合或不整合这样的东西,"Ahmad说。
在其论文中,Ahmad警告了可能被解释为患者模拟的聊天机器人AI替身,预测未来的模型甚至可能用患者的声音说话,并暗示此类工具的"舒适和熟悉"可能会模糊"辅助和情感操纵之间的界限"。
Starke同意需要更多研究和患者与医生之间的"更丰富的对话"。"我们应该谨慎不要 indiscriminately 将AI作为寻找问题的解决方案,"Starke说,"AI不会免除我们做出艰难的伦理决定,特别是关于生与死的决定。"
Truog也持类似观点:"AI不会免除我们做出艰难的伦理决定,特别是关于生与死的决定。"他想象自己处于需要做出决定的情况时,"我会想要我的妻子或另一个非常了解我的人来做这些决定,"Truog说,"我不希望有人说,'嗯,这是AI告诉我们的。'"
结论:技术与人性之间的平衡
AI替身医疗决策的发展反映了医疗技术伦理的核心挑战:如何在技术创新与人文关怀之间找到平衡点。虽然AI可能在某些方面提供有价值的见解,但生死攸关的决定本质上需要人类的同理心、道德判断和对复杂情境的理解。
正如Ahmad在其论文中所强调的,"最公平的AI替身是邀请对话、承认怀疑并为关怀留下空间的那一个。"这一观点提醒我们,无论技术如何进步,医疗决策的核心始终是对人的尊重和关怀。
在可预见的未来,AI替身最有可能作为决策辅助工具存在,而非替代人类判断。正如Truog所言,"AI不会免除我们"做出艰难的伦理决定的责任。在生命与死亡的十字路口,技术可以提供信息,但最终的选择仍应属于那些能够理解人性深度的人。









