AI替身能否决定生死?医疗AI代理的伦理困境与技术挑战

1

在医疗领域,最艰难的决策莫过于决定患者是否应该继续接受生命维持治疗。当患者无法表达自己的意愿时,医生通常依赖家属或指定的医疗代理人来做出这些生死攸关的决定。然而,随着人工智能技术的飞速发展,一个颠覆性的问题浮出水面:AI能否成为患者的替身,帮助做出这些极其敏感的决策?

医疗AI代理:新兴的研究领域

研究人员Muhammad Aurangzeb Ahmad正引领着这一前沿探索。作为华盛顿大学医学院的驻院研究员,Ahmad正与创伤科教师合作,在位于西雅图的港景医疗中心(UW Medicine)开展研究,旨在测试AI替身的准确性。

"这是一个非常新颖的领域,所以很少有人从事这项研究,"Ahmad告诉Ars科技。"目前,我们正处于概念阶段,主要工作是基于港景医疗中心的患者数据测试AI模型的准确性。"

Ahmad的研究主要分析医院已经收集的数据,如损伤严重程度、病史、既往医疗选择和人口统计信息。他解释道:"我们利用这些信息,将其输入机器学习预测模型,然后在回顾性数据中观察模型的表现如何。"

目前,还没有患者与Ahmad的模型互动过。UW Medicine发言人Susan Gregg表示,在系统推出前还有大量工作需要完成,并且"只有在经过多阶段审查过程后才会获得批准"。

Ahmad设想,未来的模型还将分析文本数据,可能来自患者与医生的经批准的记录对话,以及家人提供的聊天或短信内容。在最理想的形式下,患者将与AI系统终身互动,提供反馈以随着年龄增长不断完善模型。

技术挑战:AI能准确预测患者意愿吗?

尽管Ahmad的研究充满前景,但医疗AI代理面临的技术挑战不容忽视。宾夕法尼亚州重症监护室的医生Emily Moin指出,患者偏好往往是动态构建且依赖于上下文的,这使得AI预测变得异常复杂。

"这些决策是动态构建且依赖于上下文的,"Moin解释道。"如果你在患者康复后询问他们原本会做出什么选择,以此评估模型性能,这无法提供准确的评估。"

Moin认为,医疗AI的一个主要问题是人们期望它"提供比我们目前能力更好的预测"。然而,这些模型正在训练"便利的地面真相"上,这些真相"无法为模型提供有意义的学习示例"。

Ahmad承认,训练AI模型计算如此复杂的人的价值观和信念是一项巨大挑战。"事情变得真正复杂的地方在于,有社会规范,特定宗教团体内部也有规范,"他说。

伦理困境:AI能理解人类价值观吗?

AI伦理决策

医疗AI代理引发的伦理问题尤为突出。Ahmad在预印本论文中指出,公平使用AI代理"不仅仅是结果的平等,还包括对患者价值观、关系和世界观的忠实"。

他提出了一个核心问题:"模型不仅存在偏见问题,它还存在于谁的道德宇宙中?"

以一个极端例子为例,Ahmad设想了一个场景:医生正在决定是否应该让一名意外怀孕的女性脱离呼吸机,因为过时的记录显示她曾标记这是她的偏好。然而,如果这位女性持亲生命观点,她的人类代理(如伴侣或家人)可能会为她争取继续使用呼吸机。

"在算法术语中,对具有相似临床特征的患者进行'相似'处理将构成道德抹杀,"Ahmad写道。"个体公平需要纳入敏感于价值的特征,如记录的精神偏好或关于舒适度的陈述,同时不侵犯隐私。"

医患关系:AI会削弱人类联系吗?

医疗AI代理的潜在影响不仅限于技术层面,还可能深刻改变医患关系。Moin担心,如果患者与AI交流,实际上可能会阻碍他们与家人进行重要对话。

"研究发现,如果患者填写预先指示,可能会更难确定他们的偏好,"Moin说,"因为患者可能不太可能与亲人讨论他们的偏好。"

旧金山退伍军人医疗中心的住院医师Teva Brender也对此表示担忧。他认为,AI系统最好能作为讨论的"起点",让代理人考虑哪些数据对患者可能很重要。

"如果黑盒算法说祖母不希望进行复苏,我不知道这是否有帮助,"Brender说,"你需要它能够解释。"

文化差异:AI能适应多元价值观吗?

医疗决策的文化背景同样不容忽视。Moin指出,美国的文化已经从"非常注重患者自主权"转向"更多是共享决策,有时以家庭和社区为中心的视角"。

"医生了解患者的时间越长,患者健康团队与家人进行的对话越多,健康系统就越有可能随着时间的推移调整以尊重患者的愿望,"Moin建议道。

Ahmad最近在达拉斯参加了一个福音派基督教AI会议,这让他对文化差异有了更深入的理解。"真正突出的一点是,人们——特别是涉及大语言模型时——有很多讨论,希望有反映他们价值观的LLM版本,"Ahmond说。

实际应用:AI代理何时才能真正落地?

尽管面临诸多挑战,Ahmad仍计划在未来五年内在UW的各个站点测试他的概念模型,这将提供"某种量化这项技术效果的方法"。

"在那之后,我认为我们需要集体决定如何作为一个社会来整合或不整合这样的东西,"Ahmad说。

然而,许多专家对AI代理的实际应用持谨慎态度。Brender认为,AI代理最终可能扮演冗余角色,导致这种潜在的AI用途不受欢迎。

"反方观点是,AI代理只是在做一个好的临床医生本来就会做的事情,"Brender说,"也就是问代理人:'嘿,这个人是谁?他们喜欢做什么?什么给他们的生活带来意义?'"

"你需要AI来做这件事吗?我不太确定。"

未来展望:AI是助手还是替代者?

生物伦理学专家Robert Truog与专注于缓和医疗的医生R. Sean Morrison最近强调,AI永远不应该在复苏决策中取代人类代理人。

"关于假设场景的决定与需要在实时做出的决定没有相关性,"Morrison告诉Ars。"AI无法解决这个根本问题——这不是更好的预测问题。患者的偏好往往代表一个时间快照,根本无法预测未来。"

然而,慕尼黑工业大学AI与神经伦理学主席的高级研究助理Georg Starke的一项概念验证研究表明,三种AI模型在预测患者偏好方面平均优于人类代理人。

Starke的研究依赖于欧洲调查中瑞士受访者的现有数据,该调查追踪了50岁以上人群的健康趋势。该数据集提供了"参与者临终偏好的全面信息,包括关于CPR的问题",使团队能够构建三种模型:简单模型、基于常用电子健康记录的模型,以及更"个性化"的模型。每个模型都成功预测了心脏骤停患者是否需要CPR,准确率高达70%。

尽管如此,Starke的团队也强调,"人类代理仍然是特定情况背景下方面的重要来源",并同意"AI模型不应取代代理决策"。

结论:技术与伦理的平衡

医疗AI代理代表了一个充满潜力的新兴领域,但同时也面临着技术、伦理和社会层面的多重挑战。Ahmad的探索只是冰山一角,需要更多的研究、透明的讨论和广泛的公众参与来确保这项技术的发展既尊重人类价值观,又能真正改善医疗决策。

"AI不会免除我们做出艰难伦理决策的责任,特别是涉及生死的决策,"Starke警告说。"我们应该谨慎不要随意将AI作为一种寻找问题的解决方案。"

随着技术的不断进步,医疗AI代理或许有一天能够成为医生和家属的有用工具,但它们永远不应取代人类判断、同理心和道德推理——这些正是医疗决策中最核心的元素。在生死攸关的决策中,技术与伦理的平衡将决定这一新兴领域的未来走向。