AI生命决策助手:数字替身能否决定生死?

1

在医疗科技前沿,一个极具争议的问题正在引发医学界和伦理学界的激烈讨论:AI生成的个人数字替身是否应该参与决定患者的生死抉择?随着人工智能技术的飞速发展,这一看似科幻的设想正逐渐成为现实,而医学专家们对此持谨慎态度。

AI替身决策系统的研发现状

华盛顿大学UW医学中心的穆罕默德·奥朗泽布·艾哈迈德(Muhammad Aurangzeb Ahmad)正在领导一项开创性研究,旨在将所谓的"AI替身"引入医疗决策系统。"这是非常新的领域,所以很少有人从事这项研究,"艾哈迈德向Ars Technica表示。

艾哈迈德是华盛顿大学UW医学中心创伤系的一名研究员,他的研究基于西雅图港景医疗中心的病人数据。目前,他的模型专注于分析港景医疗中心已经收集的数据,如损伤严重程度、医疗史、既往医疗选择和人口统计信息。

"我们使用这些信息,将其输入机器学习预测模型,然后在回顾性数据中观察模型的表现如何,"艾哈迈德解释道。目前,还没有病人与艾哈迈德的模型进行过互动,UW医学中心的发言人苏珊·格雷格表示,在推出该系统前还有"大量工作需要完成"。

医生对AI辅助决策的担忧

尽管AI替身技术前景诱人,但临床医生们对其在生死决策中的角色持谨慎态度。宾夕法尼亚州重症监护室的医生艾米丽·莫因(Emily Moin)表示,医生在无法与患者沟通的情况下确定患者意愿一直很困难。"当我们处于这种快节奏的情况中,不知道患者意愿时,我们会倾向于提供CPR(心肺复苏术),直到我们能够做出临床判断,认为这种努力不再必要,或者直到我们能够与替代决策者沟通,"莫因解释道。

莫因指出,一些研究表明,替代决策者经常猜错患者的意愿,而AI可能有助于提高成功率。但她也警告说,"这些决策是动态构建的,且依赖于上下文"。如果基于患者康复后询问他们原本会做什么来评估模型表现,"这不会给你提供准确的代表"。

AI替身的潜在风险与伦理困境

莫因特别担心,"不能为自己说话且没有明确亲人"的患者将"最容易受到AI替身做出错误决定带来的伤害"。太多此类错误可能会进一步削弱对医疗系统的信任。

旧金山退伍军人医疗中心的医院医生蒂瓦·布伦德(Teva Brender)认为,这些决策对每个人来说都是"心理上充满困扰的"。布伦德同意AI替身可能最终扮演冗余角色,"做一位好临床医生本来就会做的事情"。

上个月,生物伦理学专家罗伯特·特鲁格(Robert Truog)与致力于推进临终关怀的医生R.肖恩·莫里森(R. Sean Morrison)强调,AI永远不应该在复苏决策中取代人类替代决策者。"关于假设场景的决定与需要实时做出的决定没有相关性,"莫里森表示。"AI无法解决这个根本问题——这不是更好的预测问题。患者的偏好通常只是时间快照,根本无法预测未来。"

患者偏好预测的准确性挑战

慕尼黑工业大学AI与神经伦理学主席的医生兼高级研究助理格奥尔格·斯塔克(Georg Starke)共同发表了一项概念验证研究,显示三种AI模型在预测患者偏好方面的平均表现优于人类替代决策者。斯塔克的研究依赖于一项欧洲调查中瑞士受访者的现有数据,该调查追踪了50岁以上人群的健康趋势。

斯塔克的团队旨在"将长期的伦理辩论建立在经验数据基础上"。"十多年来,人们一直在推测使用算法来改善无行为能力患者的临床决策,但没有人展示过这样的程序是否可以实际设计出来,"斯塔克说。"我们的研究旨在测试其可行性,探索其表现如何,确定哪些因素影响模型的决策,并引发对该技术的更广泛讨论。"

文化价值观对AI决策的影响

艾哈迈德在其即将发布的论文中探讨了各种公平观念,并检验了不同道德传统中的公平性。他提出,使用AI替身的公平性"超越了结果的平等,还包括对患者价值观、关系和世界观的忠实"。

"核心问题不仅变成'模型是否有偏见?',而是'模型的道德宇宙属于谁?'"艾哈迈德举例说明,两个临床特征相似的患者可能在道德推理上有所不同,一个由自主权指导,另一个由家庭或宗教责任指导。在算法术语中"同样对待"他们将构成道德抹杀。

AI替身的社会影响与信任危机

莫因指出,美国文化已经从"非常关注患者自主权"转向"更多共享决策和家庭及社区视角"作为做出这些困难决策的标准。如果患者与AI交谈,实际上可能会 discourage 他们与家人进行重要对话。

莫因呼吁公众提高对AI替身的认识和辩论,因为"人们真的讨厌"使用算法来决定谁获得护理。"我认为这对患者、临床医生或社会都不好,"她说。

技术局限性与未来展望

艾哈迈德承认AI模型有些"脆弱",可能会对措辞略有不同或模型不理解的"巧妙"方式给出"非常不同的答案"。他正在尝试解决他所谓的"价值观工程问题"。

艾哈迈德希望在未来五年内在UW的各个站点测试他的概念模型,这将提供"某种方式来量化这项技术有多好"。"在那之后,我认为社会需要集体决定如何整合或不整合这样的东西,"他说。

特鲁格警告说,所有这些路径都存在一个问题,"它们将是否执行CPR的决定框定为二元选择,无论上下文或心脏骤停的情况如何"。"在现实世界中,当患者失去意识时,他们是否想要CPR的答案,在几乎所有情况下都是'视情况而定'。"

结论:AI在生死决策中的角色

尽管AI替身技术在预测患者偏好方面展现出一定潜力,但医学专家们普遍认为,AI应该作为决策辅助工具,而非替代人类判断。特鲁格强调:"AI不会免除我们做出艰难的伦理决策,特别是关乎生死的决策。"

艾哈迈德在其论文中警告不要使用可能被解释为患者模拟的聊天机器人AI替身,预测未来的模型甚至可能用患者的声音说话,而这类工具的"舒适和熟悉"可能会模糊"辅助和情感操纵之间的界限"。

斯塔克同意需要更多的研究和患者与医生之间的"更丰富的对话"。"我们应该谨慎不要不加区别地将AI作为寻求问题的解决方案,"他说。"AI不会免除我们做出艰难的伦理决策,特别是关乎生死的决策。"

当特鲁格思考自己可能面临的情况时,他知道他不仅会考虑自己的价值观、健康和生活质量。他的选择"可能取决于我的孩子们怎么想"或"财务后果对我的预后细节会有什么影响"。"我希望我的妻子或另一个非常了解我的人来做这些决定,"特鲁格说。"我不希望有人说:'嗯,这是AI告诉我们的。'"

AI医疗决策

AI在医疗决策中的应用引发伦理思考

随着技术的不断进步,AI在医疗决策中的角色将继续引发讨论。然而,正如专家们所强调的,无论技术多么先进,在关乎生死的决策中,人类价值观、情感联系和道德判断仍然是不可或缺的。AI或许能够提供数据支持,但最终的决定权,应该保留在那些真正理解患者作为人的本质的人手中。