AI替身决策:当数字分身决定生死时

1

在医疗领域,一个前所未有的问题正在引发激烈讨论:当患者无法表达自己的意愿时,一个AI版本的"你"是否应该帮助决定你的生死?随着人工智能技术的飞速发展,研究人员和医疗专家开始探索使用"AI替身"(AI surrogates)来辅助医生和家属在紧急医疗情况下做出符合患者价值观和目标的决定。

什么是AI替身决策?

AI替身决策是指利用人工智能技术创建一个患者的数字副本,当患者因昏迷或其他原因无法表达医疗偏好时,这个AI模型可以基于患者的历史数据、医疗记录和价值观预测他们可能做出的医疗决定。

华盛顿大学UW Medicine的研究员Muhammad Aurangzeb Ahmad正致力于推动这一技术在医疗设施中的试点应用。"这非常新颖,所以很少有人在这方面工作,"Ahmad告诉Ars科技。"我们的目标是开发能够准确预测患者偏好的AI替身,准确率达到三分之二。"

当前研究进展

华盛顿大学的试点项目

Ahmad的研究基于西雅图港景医疗中心(Harborview Medical Center)的患者数据,目前仍处于概念阶段。他正在测试的AI模型主要分析该医院已经收集的数据,包括损伤严重程度、病史、既往医疗选择和人口统计信息。

"我们使用这些信息,将其输入机器学习预测模型,然后在回顾性数据中观察模型的表现如何,"Ahmad解释道。

目前,还没有患者与Ahmad的模型进行过互动。UW Medicine发言人Susan Gregg表示,在推出该系统之前,"需要完成大量工作",并且该系统"只有在多阶段审查过程后才会获得批准"。

未来发展方向

Ahmad设想未来的模型还将分析文本数据,可能来自患者授权的与医生的对话记录,以增强AI替身的预测能力。在这种理想状态下,可信的人类代理人,如家庭成员,可以提供与患者聊天或发短信中的其他文本数据。Ahmad认为,技术的最理想形式是患者在整个生命周期中与AI系统互动,提供反馈以随着年龄增长而完善模型。

"获取相关数据需要时间,"Ahmad说。

医生们的担忧

对无人类代理人的患者

对于无法为自己发声且没有人类代理人的患者,AI是否适合?宾夕法尼亚州重症监护室的医生Emily Moin认为这是一个复杂的问题。

"当患者没有表达偏好时,医生很难确定他们想要什么,"Moin解释说。"对于这类患者,我们永远无法所谓的'真实情况',因此我们永远无法评估偏见,也永远无法评估模型的性能。"

Moin担心,"无法为自己发声且没有明确亲人"的患者将"最容易受到AI替身做出错误决定而造成的伤害"。她说,太多的此类错误可能会进一步削弱对医疗体系的信任。

家庭成员可能默认同意AI

文化上,美国已经从"非常注重患者自主权"转变为"更多是共享决策,有时以家庭和社区为中心的视角"作为做出这些艰难决策的标准,Moin说。

如果患者与AI交谈,实际上可能 discourage 他们与家人进行重要对话,Moin警告说。研究发现,如果患者填写预先指示,可能更难确定他们的偏好,因为患者可能不太可能与亲人讨论他们的偏好。

"放弃CPR是患者或代理人可以做出的最重大的治疗决定之一,因为一旦执行,必然会导致死亡,"Moin写道。"我担心文化转变和其他压力会鼓励临床医生和家庭成员更重地依赖这类产品。"

AI替身可能多余

旧金山退伍军人医疗中心的医院医生Teva Brender认为,AI替身最终可能扮演多余的角色。

"反方观点是,AI替身只是做了一个好临床医生本来就会做的事情,"Brender说,"即询问代理人:'嘿,这个人是谁?他们喜欢做什么?什么给他们的生活带来意义?'"

"你需要AI来做这件事吗?我不太确定,"Brender质疑道。

专家警告:AI不能替代人类代理人

上个月,生物伦理学专家Robert Truog与致力于推进旨在改善生命威胁性疾病患者生活质量的姑息治疗的医生R. Sean Morrison共同强调,AI永远不应在复苏决策中替代人类代理人。

"关于假设情景的决定与需要实时做出的决定没有关联,"Morrison告诉Ars。"AI无法解决这个根本问题——这不是更好的预测问题。患者的偏好往往代表了一个时间点的快照,根本无法预测未来。"

Chatbot替身的潜在危害

Brender认为,如果以聊天机器人界面呈现的AI替身导致医生和家庭成员对算法"过于信任",可能会出现噩梦般的场景。这就是为什么如果这项技术最终部署,透明度和严格测试将至关重要。

"如果一个黑盒算法说祖母不希望复苏,我不知道这是否有帮助,"Brender说。"你需要它是可解释的。"

AI替身的偏见研究缺失

目前很少有研究探讨使用AI替身时的偏见和公平性问题,这使Ahmad的工作复杂化。

Ahmad旨在通过一篇即将发布的预印本论文填补这一空白,该论文概述了各种公平观念,然后检验了不同道德传统中的公平性。Ahmad认为,使用AI替身的公平性"超越了结果的平等,还包括对患者价值观、关系和世界观的忠实度"。

"核心问题不仅是'模型是否有偏见?',而是'模型存在于谁的道德宇宙中?'"Ahmad写道。

技术挑战与未来展望

Ahmad承认,AI模型在训练计算像人的价值观和信仰这样复杂的事情方面面临着巨大挑战。"当涉及到社会规范,以及特定宗教团体内的规范时,事情就变得非常复杂了,"他说。

他设想,在技术最终部署给患者之前,可能需要十多年的时间,因为AI模型需要训练来计算如此复杂的人的价值观和信念。

AI不会免除我们的责任

"AI不会免除我们做出艰难伦理决策的责任,特别是涉及生死的决策,"Starke警告说。"我们应该谨慎不要不加区分地将AI作为寻求问题的解决方案。"

Truog也同意这一观点:"我无法想象我会希望我的妻子或另一个非常了解我的人来做这些决定。我不希望有人说:'嗯,这是AI告诉我们的。'"

结论:AI作为辅助工具而非替代者

尽管AI替身技术在医疗决策领域展现出潜在价值,但专家们普遍认为,AI应该作为辅助工具而非替代人类决策者。Ahmad在其论文中警告不要将聊天机器人AI替身解释为对患者的模拟,预测未来的模型甚至可能用患者的声音说话,并暗示这类工具的"舒适和熟悉"可能会模糊"辅助和情感操纵之间的界限"。

最公平的AI替身是"邀请对话、承认怀疑、为关怀留出空间"的,Ahmad总结道。在医疗决策这一深刻人性化的领域,技术应该增强而非取代人类判断、同情和伦理考量。

AI医疗决策

随着这项技术的不断发展,社会将面临一个关键问题:我们是否愿意将如此深刻的生命决定权交给算法?答案可能不在于技术本身,而在于我们如何设计、监管和使用这些工具,以确保它们尊重人类的尊严、价值观和自主权。