AI替身决策生死:医疗伦理与技术的边界探索

1

在医疗领域,一个前所未有的问题正在引发激烈讨论:人工智能能否成为患者的替身,在医生必须为无法表达意愿的患者做出生死攸关的决策时,代表患者的意愿和价值观?

这一问题的答案不仅关乎医疗技术的未来发展,更触及人类对生命、自主权和伦理的深刻理解。随着AI技术的不断进步,一些专家逐渐认为,患者的数字"克隆体"有一天可能成为帮助家人、医生和伦理委员会做出符合患者价值观和目标的临终决策的辅助工具。

AI替身:从概念到实践

华盛顿大学UW医学中心的Muhammad Aurangzeb Ahmad研究员正致力于将这一概念变为现实。他正在美国一家医疗机构率先试点AI替身技术,尽管目前尚未有任何医院正式部署这类系统。

"这是非常新的领域,所以很少有人从事这项研究,"Ahmad告诉Ars科技。"目前我们仍处于概念阶段,正在基于Harborview医疗中心的患者数据测试AI模型的准确性。"

Ahmad的研究主要分析该机构已经收集的数据,如伤情严重程度、病史、既往医疗选择和人口统计信息。通过将这些信息输入机器学习预测模型,研究人员可以观察模型在回顾性数据中的表现。

"目前还没有患者与我们的模型互动过,"Ahmad确认道。UW医学中心发言人Susan Gregg表示,在系统推出前还有"大量工作需要完成",并且"只有经过多阶段审查流程"后才会获得批准。

Ahmad设想,未来的模型还将分析文本数据,可能来自患者授权的与医生的对话记录,或家人提供的聊天信息。在技术的"理想"形态中,患者可以在一生中与AI系统互动,提供反馈以随着年龄增长不断优化模型。

伦理困境:AI能否真正理解患者意愿?

然而,将AI引入生死决策领域面临着诸多伦理挑战。宾夕法尼亚州ICU的医生Emily Moin指出,患者的医疗偏好往往是"动态构建且依赖于情境"的,这使得AI预测变得异常复杂。

"如果你基于患者康复后询问他们会如何选择来评估模型表现,那将无法提供准确的结果,"Moin解释道。"这些决策是在特定情境下做出的,AI无法完全捕捉这种复杂性。"

更关键的是,许多患者从未明确表达过自己的医疗偏好,尤其是年轻事故受害者。对于这类患者,AI系统将面临"永远无法知道所谓的真实情况"的困境,从而难以评估模型偏见和性能。

文化与价值观:AI能否跨越差异?

医疗决策深受文化背景和价值观影响。Ahmad在研究中发现,不同患者可能有着截然不同的道德推理方式,有的以自主为导向,有的则以家庭或宗教责任为准则。

"在算法层面将他们'同样对待'实际上构成了道德抹杀,"Ahmad在其论文中指出。"个体公平需要纳入价值敏感特征,如记录的精神偏好或关于舒适度的陈述,同时不侵犯隐私。"

以一个极端例子为例:一位孕妇在事故中受伤,旧记录显示她曾表示不愿使用呼吸机。但如果她持有亲生命观点,其家人可能会主张继续使用呼吸机。AI系统是否能捕捉到这种细微的价值观差异,仍是未知数。

医生与AI:谁应该主导决策?

多位专家强调,AI不应取代人类决策者。Mount Sinai的R. Sean Morrison医生强调:"关于假设场景的决定与实时需要做出的决定没有相关性。AI无法解决这个根本问题——这不是预测更好的问题。患者的偏好往往只是时间快照,不能预测未来。"

旧金山退伍军人医疗中心的Teva Brender医生认为,AI替身最终可能扮演冗余角色,"就像一个好医生本该做的那样"——询问代理人:"嘿,这个人是谁?他们喜欢做什么?什么给他们生活带来意义?"

"你需要AI来做这件事吗?我不太确定,"Brender质疑道。

信任与透明:AI决策的"黑箱"问题

即使AI能够提供准确预测,其决策过程的"黑箱"特性也引发了信任问题。Brender警告说,如果以聊天机器人界面呈现的AI替身导致医生和家人对算法"过度信任",将可能产生灾难性后果。

"如果一个无法解释的算法说祖母不希望接受复苏抢救,我不知道这是否有帮助,"Brender说。"你需要它能被解释。"

Ahmad承认,目前关于AI替身使用中的偏见和公平性研究很少。他最近发表的一篇预印本论文试图通过映射各种公平概念,并检验不同道德传统中的公平性,来填补这一空白。

未来展望:AI作为决策辅助工具

尽管面临诸多挑战,Ahmad仍计划在未来五年内在UW的各个站点测试其概念模型,"以某种方式量化这项技术的优劣"。之后,"关于如何将此类技术整合或不整合到社会中,我认为社会需要做出集体决定。"

在论文中,Ahmad警告不要使用可能被解释为患者模拟的聊天机器人AI替身,预测未来的模型甚至可能用患者的声音说话,而这类工具的"舒适和熟悉"可能模糊"辅助与情感操纵之间的界限"。

Starke同意需要更多研究和"更丰富的医患对话"。"我们应该谨慎不要不加区分地将AI作为寻找问题的解决方案,"他说。"AI不会免除我们做出艰难伦理决策的责任,尤其是涉及生死的决策。"

生物伦理学家Truog想象AI有一天"可以为代理决策者提供一些有趣的信息,并有所帮助"。但他强调:"所有这些途径都存在一个问题...它们都将是否进行CPR的决定框定为二元选择,无论背景或心脏骤停的具体情况如何。在现实世界中,当患者失去意识时,他们是否希望进行CPR的答案,在几乎所有情况下都是'视情况而定'。"

结语:技术与人文的平衡

AI替身技术的发展引发了关于医疗本质的深刻思考。当技术能够预测甚至代表患者做出生死决策时,我们如何确保人文关怀不被算法取代?如何平衡效率与伦理,技术进步与人性尊严?

正如Ahmad在其论文中所言:"最公平的AI替身是那些邀请对话、承认怀疑、为关怀留出空间的存在。"在这场关乎生命的讨论中,技术或许能提供辅助,但最终做出决定的,仍应是那些能够理解人类复杂情感和价值观的人。

在可预见的未来,AI替身更可能作为决策辅助工具,而非替代品。它的价值不在于取代人类判断,而在于扩展我们对患者意愿的理解,为医疗决策提供更全面的视角。在这条道路上,技术发展与伦理思考必须齐头并进,才能真正实现"既科学又仁慈"的医疗目标。