AI健康建议引发精神危机:男子听信大模型用溴化钠替代食盐,险酿大祸

1

警示案例:AI健康建议的盲区与溴中毒的复现

近年来,人工智能大模型以其强大的信息整合与生成能力,渗透到我们生活的方方面面,包括健康咨询。然而,一起近期发生的案例,犹如一记警钟,深刻揭示了在医疗健康领域过度依赖AI的潜在危险。一名60岁的男子在听信AI“建议”后,擅自将食盐替换为溴化钠,最终因严重的溴中毒(Bromism)而陷入精神危机,长达三周的住院治疗才使其得以康复。

错位的健康追求:从氯化钠到溴化钠

这起事件的主人公是一名对营养学有所涉猎的60岁男性。出于对日常食盐(氯化钠)中“氯”元素的担忧,他萌生了在饮食中完全排除氯的念头。在这一过程中,他转向了流行的AI聊天机器人——ChatGPT寻求替代方案。尽管具体的对话记录已无从考证,但其最终的结论却是令人震惊的:他选择了从互联网上获取溴化钠,并以此作为氯化钠的替代品加入日常饮食。

三个月后,随着体内溴元素的大量累积,一系列令人不安的症状开始显现。这名男子被送往当地急诊室时,表现出极度的偏执和妄想,坚称邻居试图对他下毒。尽管口渴难耐,他却对医院提供的饮用水充满警惕,声称自己在家中已开始蒸馏饮用水,并且坚持极端限制性的素食。在初次就诊时,他只字未提曾使用溴化钠,也未提及与ChatGPT的互动。

医生在对其进行全面检查后,发现他存在多种微量营养素缺乏,特别是关键维生素的严重不足。但更严重的问题是,他表现出明显的溴中毒迹象。随着病情的恶化,该男子在住院第一天便出现了日益严重的偏执、听觉和视觉幻觉,甚至试图逃离医院。鉴于其精神状态的恶化和行为的失控,医生对其采取了强制性精神病拘留措施,并开始使用抗精神病药物进行干预。治疗溴中毒的关键在于“积极的盐水利尿法”——即通过大量输液和电解质补充,加速体内溴的排出。这虽然有效,但需要时间。该男子体内的溴化物水平高达1700毫克/升,而健康人的正常参考范围仅为0.9至7.3毫克/升,其体内溴含量是正常上限的200多倍。最终,这名男子在医院接受了长达三周的治疗,才从这场由完全可预防的健康误判引发的恐怖精神病中恢复。

溴中毒:被遗忘的威胁重现

溴中毒并非现代医学的新发现,而是一种“重现”的威胁。一个世纪以前,溴中毒在美国曾是一个相当普遍的公共卫生问题,甚至一度占据精神病住院患者总数的8%至10%。究其原因,当时含有溴的盐类化合物,如溴化钾,常被作为镇静剂,用于缓解焦虑、对抗失眠或平复情绪。这些溴化物因其镇静安眠效果而广受欢迎,几乎成为当时人们应对精神困扰的首选药物。

然而,溴化物在人体内代谢缓慢,极易累积。当体内溴浓度过高时,便会严重损害神经系统功能,引发一系列广泛的健康问题,统称为“溴中毒”。其症状远不止精神紊乱,还可能包括严重的皮肤皮疹(如溴疹)和显著的认知及行为障碍。正是由于其累积毒性和严重的副作用,含有溴化物的镇静剂于1989年被美国食品药品监督管理局(FDA)禁止上市,此后,溴中毒作为一个临床综合征,在大多数美国人中逐渐变得陌生。尽管如此,溴中毒并未完全消失。例如,在2024年FDA禁用了溴化植物油(BVO)在食品中的使用之前,曾有案例报告显示,长期大量饮用含有溴化植物油的可乐也可导致溴中毒。

溴中毒风险

AI在医疗信息领域的双刃剑效应

当这名患者的精神状况稳定后,他才向医生坦白了其“健康实验”的起因——正是ChatGPT的“指引”。尽管医生未能获得其与ChatGPT的完整对话记录,推测该男子可能使用了ChatGPT 3.5或4.0版本,但其遭遇无疑为我们敲响了警钟。

医生们在撰写这起病例研究报告时,曾尝试用ChatGPT 3.5进行类似查询。他们发现,AI在回复中确实提到了溴化物,但同时强调了使用的“上下文”至关重要,并非所有用途都适合。然而,AI“没有提供具体的健康警告,也没有像医疗专业人员那样询问我们想要了解此信息的具体原因。”这意味着AI在提供信息时,缺乏人类医生所具备的判断力、警觉性和伦理考量。它们无法评估提问者的背景知识、健康状况或提问意图,也无法对潜在的危险提供足够的预警。

值得庆幸的是,当前一些免费的ChatGPT模型在处理此类健康咨询时已有所改进。例如,当我尝试询问如何替代饮食中的氯化物时,它首先会要求“澄清你的目标”,并给出多个选项,如“减少饮食或家庭用盐”、“避免有毒/反应性氯化合物”或“替代基于氯的清洁或消毒剂”。虽然它仍可能在第三个选项(清洁或消毒)下提及溴化物,并注明“常用于热水浴缸”,但这种引导式的提问方式至少能在一定程度上降低误用的风险。然而,这并不能完全消除风险,特别是当用户缺乏专业知识,无法准确理解和解读AI的回复时。

这个案例清晰地展现了AI在医疗健康领域应用的复杂性:它既是获取信息的新渠道,也可能成为误导信息的放大器。AI的训练数据庞大,但其生成的信息并非都经过严格的事实核查,更不具备医学专业判断的深度和广度。对于健康这种容错率极低的领域,AI的“幻觉”或信息偏差可能导致灾难性后果。我们必须认识到,AI模型是基于统计规律进行文本生成,它们没有真正的“理解”能力,也无法进行伦理推理或情境判断。

数字时代健康信息获取的挑战与对策

这名男子的经历,无疑是数字时代健康信息获取困境的一个缩影。在当今信息爆炸的社会,我们被海量信息所包围,但往往缺乏有效的甄别技能、相关领域的专业知识,以及对权威信息的信任。这使得“自己做研究”常常演变为在信息海洋中迷失方向,甚至误入歧途。

首先,信息过载与辨别能力不足是普遍问题。互联网上充斥着未经证实的健康疗法、极端饮食方案和所谓的“健康秘诀”。对于普通民众而言,区分科学证据与伪科学,识别可靠来源与误导性宣传,是一项艰巨的挑战。当AI模型在其中扮演“信息整合者”角色时,如果其训练数据中包含大量非专业甚至错误的信息,或者其算法无法有效识别并过滤这些信息,那么AI生成的内容便可能成为这些错误的“助推器”。

其次,缺乏专业背景知识使得个体在解读AI生成内容时面临巨大障碍。案例中的男子虽有营养学背景,但显然不足以应对AI给出的复杂化学替代方案。医疗健康领域的知识体系庞大且专业,涉及生理、生化、药理等多学科交叉。AI给出的某些“事实”在特定语境下可能是正确的,但在应用于人体健康时,却可能因剂量、相互作用、个体差异等因素而变得极其危险。这种“知识鸿沟”极易导致片面理解和错误决策。

再者,对AI的过度信任也是一个不可忽视的因素。大模型以其流畅的语言和看似全面的知识呈现,很容易给人造成“无所不知”的错觉。这种错觉可能使人在面对健康问题时,优先选择AI而非专业医生,忽视了医疗咨询的严谨性和个性化。AI无法进行体格检查,无法询问病史细节,也无法根据个体情况做出精确的诊断和治疗建议。它只能提供基于文本模式匹配的信息,而非临床医学的专业判断。

为了避免类似的悲剧重演,我们需要在多个层面构建防线:

  1. 提升信息素养与批判性思维:公众应被教育如何识别可靠的健康信息来源,如权威医疗机构、专业学会、经过同行评审的医学期刊等。对于来自社交媒体、非专业论坛或未经证实的AI“建议”,应持高度怀疑态度,并寻求多方验证。培养独立思考和批判性分析能力,是抵御健康谣言和错误信息的首要武器。

  2. 明确AI的辅助工具定位:AI在医疗领域具有巨大潜力,可用于辅助诊断、数据分析、药物研发等,但其本质是工具,而非替代专业医疗人员。用户在使用AI获取健康信息时,应将其视为参考而非最终结论。任何涉及健康决策的关键信息,尤其是关乎生命安全的替代疗法或药物调整,必须咨询合格的医疗专业人员,如医生、药剂师或注册营养师。

  3. AI开发者与平台的责任:AI模型开发者和平台运营商负有重大责任。他们应在模型设计中融入更强的安全机制和伦理准则,例如:

    • 风险提示与免责声明:在涉及健康、金融等高风险领域时,强制性地弹出明确的风险提示和免责声明,引导用户寻求专业帮助。
    • 情境感知与用户意图识别:提升AI识别用户潜在危险意图的能力,并在发现高风险查询时,主动中断并提供专业机构的联系方式。
    • 信息溯源与可信度评估:训练模型在生成健康信息时,优先引用权威、科学的来源,并能提供信息出处,增强信息透明度与可信度。
    • 针对敏感主题的严格过滤:对可能导致严重健康后果的自诊自疗建议进行更严格的过滤和限制。
  4. 强化医疗科普与公众教育:医疗机构和专业人士应加大力度,利用多元化的渠道,向公众普及科学的健康知识和正确的就医观念。通过权威且易懂的科普内容,帮助民众树立正确的健康观,减少对非专业信息的依赖。

这起溴中毒案例是AI时代一个深刻的教训。它提醒我们,在享受人工智能带来便利的同时,必须对其局限性和潜在风险保持清醒的认识,尤其是在关乎人类生命与健康的领域。只有在人类专业知识和伦理判断的引导下,AI才能真正成为服务人类健康的强大助力,而不是潜在的威胁。