在医疗技术日新月异的今天,一个前所未有的伦理问题摆在了我们面前:当一个患者无法表达自己的意愿时,AI能否成为患者的"数字替身",协助医生做出关乎生死的医疗决策?这一前沿议题正在医疗界和AI研究领域引发激烈讨论,也触及了人类价值观与生命尊严的核心。
AI替身技术的兴起与现状
十多年来,研究人员一直在探索人工智能是否能够帮助预测重症监护患者可能想要接受的治疗方案。这已成为当今医疗AI领域最高风险的问题之一。随着AI技术的不断进步,一些专家 increasingly 认为,患者的数字"克隆"体有一天可能成为帮助家人、医生和伦理委员会做出符合患者价值观和目标的临终决策的辅助工具。
华盛顿大学UW医学院的创伤部门研究员Muhammad Aurangzeb Ahmad正致力于改变这一现状,他正在美国医疗机构试点AI替身技术的第一步。
"这项技术非常新颖,所以很少有人在这方面工作,"Ahmad告诉Ars技术媒体。
Ahmad是UW医学院与创伤系教职员工合作的驻院研究员,他的研究基于西雅图港景医疗中心的Harborview患者数据。目前,Ahmad的模型专注于分析Harborview已经收集的数据,如损伤严重程度、医疗历史、既往医疗选择和人口统计信息。
"我们使用这些信息,将其输入机器学习预测模型,然后在回顾性数据中观察模型的表现如何,"Ahmad说。
目前,还没有患者与Ahmad的模型互动过。UW医学院发言人Susan Gregg告诉Ars,在推出系统前还有大量工作需要完成,并且该系统"只有在多阶段审查过程后才会获得批准"。
准确性验证的挑战
Ahmad承认,他测试的主要局限性在于,只有当患者存活下来并能够确认模型做出了正确选择时,他才能验证其模型的准确性。但他表示,这只是第一步,准确性测试随后可以扩展到网络中的其他设施,目标是开发出能够准确预测患者偏好的AI替身,准确率达到"三分之二"。
然而,宾夕法尼亚州重症监护室的医生Emily Moin指出,Ahmad计划的测试可能存在其他局限性,即通过询问患者康复后他们原本会想要什么来决定准确性,这并不能提供准确的评估。
"这些决策是动态构建的,并且依赖于上下文,"Moin说。"如果你基于询问某人康复后他们会说什么来评估模型的表现,这不会给你提供准确的代表。"
Moin认为医疗AI的一个大问题是,人们期望它"提供比我们目前能够生成的更好的预测"。但她说,这些模型正在基于"方便的 ground truth"进行训练,这些数据并不"为模型提供有意义的学习情境"。
无人类代理患者的困境
Moin想象,研究人员实际上可能希望部署这个模型来帮助无法沟通且没有代理的患者做决定,但"这些正是你永远无法知道所谓的 ground truth 是什么的患者,然后你永远无法评估你的偏见,也永远无法评估你的模型性能"。
Ahmad承认,目前几乎没有探索AI替身使用中的偏见和公平性的研究。他最近发表的一篇预印本论文概述了各种公平概念,并检验了不同道德传统中的公平性。Ahmad认为,使用AI替身的公平性"超越结果的平等性,包括对患者的价值观、关系和世界观的忠实度"。
"核心问题不仅是'模型是否有偏见?',而是'模型 inhabits 谁的道德宇宙?'"Ahmad写道,例如,两个具有相似临床特征的患者可能在道德推理上有所不同,一个由自主性指导,另一个由家庭或宗教责任指导。在算法术语中"相似地"对待他们将构成道德抹杀。
文化差异与价值观冲突
Ahmad指出,AI替身技术面临的挑战在于AI模型难以训练来计算像人的价值观和信仰这样复杂的东西。
"事情变得非常复杂的地方在于这里有社会规范,然后特定宗教群体内部也有规范,"Ahmad说,他举了一个极端例子:想象一下,如果医生试图决定一名涉及事故的孕妇是否应该脱离呼吸机,因为过时的记录显示她曾标记这是她的偏好。她的伴侣或家人等人类代理可能会为她主张继续使用呼吸机,特别是如果这位妇女持亲生命观点的话。
没有人类代理,医生可以求助于AI帮助他们做决定,但前提是AI系统能够基于"从数据、临床变量、人口统计信息、临床笔记中的语言标记以及可能的患者数字足迹中学到的模式"来捕捉患者的价值观和信仰。
AI替身与人类决策的关系
旧金山退伍军人医疗中心的住院医师Teva Brender认为,这些决策对每个人来说都是"充满心理社会风险的"。他说这就是像Ahmad这样的测试很重要的原因。
Brender认为,AI系统最好可以作为讨论的"起点",为代理提供一种考虑哪些数据对患者可能重要的方式。
但Brender同意Moin的观点,即如果不透明AI替身如何做出决定,AI可能会播下不信任的种子。
想象一下,如果AI系统不知道可能完全改变患者预后的癌症新治疗方法怎么办?Brender建议,如果医院投资于改善预后的AI,而不是"真正预测患者想要什么",患者可能会得到更好的服务。
伦理专家的警告
上个月,生物伦理学家Robert Truog与致力于推进旨在改善生命威胁疾病患者生活质量的姑息治疗的医生R. Sean Morrison强调,AI在复苏决策中永远不应取代人类代理。
"关于假设场景的决定与需要实时做出的决定没有相关性,"Morrison告诉Ars。"AI无法解决这个根本问题——这不是更好的预测问题。患者的偏好通常代表一个时间点的快照,根本无法预测未来。"
这一警告是在慕尼黑工业大学AI和神经伦理学主席医生兼高级研究助理Georg Starke共同发表了一项概念验证研究之后提出的,该研究表明,三个AI模型在预测患者偏好方面平均表现优于人类代理。
然而,Starke的团队也强调,"人类代理仍然是特定情况背景方面的基本来源",并同意AI模型"不应取代代理决策"。
未来展望与建议
Ahmad希望在未来五年内在UW各个站点测试他的概念模型,这将提供"某种方式来量化这项技术有多好"。
"在那之后,我认为关于我们如何决定集成或不集成这样的技术,有一个社会性的集体决策,"Ahmad说。
在他的论文中,他警告可能被解释为患者模拟的聊天机器人AI替身,预测未来的模型甚至可能用患者的声音说话,并暗示此类工具的"舒适和熟悉"可能会模糊"辅助和情感操纵之间的界限"。
Starke同意需要更多的研究和患者与医生之间"更丰富的对话"。
"我们应该谨慎不要不加区别地将AI应用为寻找问题的解决方案,"Starke说。"AI不会免除我们做出困难伦理决策的责任,特别是关于生死的决策。"
Truog告诉Ars,他"可以想象AI有一天可以为代理决策者提供一些有趣的信息,这会有所帮助"。
但Truog的社论指出,"所有这些途径的一个问题是...它们将是否进行CPR的决定框定为二元选择,无论上下文或心脏骤停的情况如何"。在现实世界中,"当患者失去意识时,他们是否希望进行CPR这个问题的答案,在几乎所有情况下,都是'视情况而定'。"
当Truog思考自己可能陷入的情况时,他知道他不仅会考虑自己的价值观、健康和生活质量。他的选择"可能取决于我的孩子们怎么想"或"财务后果会是什么",他告诉Ars。
"我希望我的妻子或另一个非常了解我的人来做这些决定,"Truog说。"我不希望有人说:'嗯,这是AI告诉我们的。'"
结论
AI替身技术在医疗决策中的应用面临着准确性、伦理、文化差异和隐私保护等多重挑战。虽然这项技术有潜力帮助改善医疗决策,特别是在没有明确人类代理的情况下,但它永远不应该取代人类判断和情感联系。
未来的研究方向应该集中在验证临床试验中的公平框架,通过模拟评估道德权衡,以及探索跨文化生物伦理如何与AI设计相结合。只有那时,AI替身才可能准备好作为"决策辅助工具"部署,任何"有争议的输出"应该自动"触发伦理审查"。
正如Ahmad所总结的:"最公平的AI替身是那些邀请对话、承认怀疑并为关怀留有余地的替身。"AI不会免除我们做出困难伦理决策的责任,特别是在关乎生死的问题上。技术可以辅助,但最终,这些深刻的人类决策应该仍然掌握在人类手中,尊重每个人的独特价值观和尊严。









