近期,一则令人震惊的医疗案例引发了广泛关注:一名60岁男子在寻求健康建议时,过度依赖人工智能聊天模型ChatGPT,竟将日常食用的氯化钠替换为溴化钠,最终导致严重的溴中毒,并陷入了精神失常的深渊。这一事件不仅是对个人健康极端行为的严峻警示,更深刻揭示了在信息爆炸时代,人工智能在提供专业、敏感领域建议时所面临的巨大伦理和安全挑战。
盲信AI的极端实验
据《内科学年鉴:临床病例》报道,这名男子曾有大学营养学研究背景,在与ChatGPT的互动中,他被引导相信应从饮食中彻底清除氯元素,甚至包括食盐。他自行通过互联网获取溴化钠,并以此作为氯化钠的替代品。在持续三个月的“健康实验”后,他因严重的偏执妄想而被迫就医。
入院时,他坚信邻居企图投毒,对医院提供的饮水也充满怀疑,坚持只饮用自家蒸馏水,并自述严格素食。然而,他对溴化钠的使用和与ChatGPT的对话只字未提,这无疑增加了医生诊断的难度。
溴中毒的沉重代价
医生们在对其进行全面检查后,发现他不仅存在多种微量元素缺乏,更重要的是,其体内溴元素含量极高,确诊为溴中毒(Bromism)。在一个世纪前,溴化物曾被广泛用作镇静剂,高达8%至10%的精神科入院病例都与此有关。然而,溴化物在体内易于累积,过量会导致神经功能受损,引发一系列严重问题,包括骇人的皮肤皮疹和严重的精神障碍。
尽管溴化物镇静剂于1989年被美国食品药品监督管理局(FDA)禁用,且“溴中毒”在当代已相对罕见,但在某些特殊情况下,如饮用含有溴化植物油(BVO)的饮料(该成分已于2024年被FDA禁用),仍可能诱发。
该男子在入院后的首日,症状急剧恶化,偏执和幻听、幻视愈发严重,甚至试图逃离医院。鉴于其精神状态,医生对其进行了强制性精神科拘留,并给予抗精神病药物。治疗方案主要采取了“积极盐水利尿”——通过大量输液和电解质补充,加速体内溴的排出。
这过程耗时甚长,因为他的溴水平高达1700毫克/升,而正常参考范围仅为0.9至7.3毫克/升。最终,这名男子在医院接受了长达三周的治疗,才逐渐从这场本可完全避免的恐怖精神病发作中恢复过来。
AI角色解析:模糊的界限
当男子的精神状态稳定后,他向医生们坦露了事情的始末。正是他对食盐危害的片面认知,加之与ChatGPT的对话,使其坚信溴化钠是安全的替代品。尽管医生们未能获取其具体的ChatGPT对话记录,但推测其可能使用了3.5或4.0版本。
医生们尝试向ChatGPT 3.5提问氯化物替代方案时,AI确实提到了溴化物,但并未给出明确的健康警示,也未像专业医护人员那样追问用户提问的真实意图和背景。这暴露出早期AI模型在处理涉及生命安全的敏感信息时,缺乏必要的专业判断和情境感知能力。
当前,更新版本的ChatGPT模型在处理此类查询时已有所改进。例如,当进行类似询问时,AI会首先要求“澄清您的目标”,提供多种情境选项,并将溴化物主要列为清洁或消毒用途的替代品,而非膳食补充。然而,即便如此,人工智能仍无法完全替代人类的专业判断和经验。在缺乏专业知识和辨别能力的情况下,用户盲目听信AI的片面信息,正如本案例中的男子一样,极易将自己置于危险境地。
数字时代的健康信息陷阱
这起溴中毒案例是数字化信息时代一个完美的警示。我们身处一个信息泛滥的时代,各种信息唾手可得。然而,“自己研究”的自由背后,往往隐藏着巨大的认知鸿沟和风险。当缺乏足够的经济资源、有效的信息筛选能力、专业的领域知识,以及对权威机构和医疗专业人员的信任时,个人很容易被误导,做出看似自主实则有害的决策。
因此,在使用人工智能工具获取健康或专业信息时,我们必须保持高度的警惕性和批判性思维。AI可以作为信息检索的辅助工具,但绝不能替代专业的医疗诊断和建议。任何涉及身体健康、药物替代或极端饮食方案的决策,都应严格遵循专业医生的指导,并以科学、严谨的态度对待。确保信息来源的权威性与可靠性,是避免类似悲剧发生的关键。社会各界也应共同努力,提升公众的健康素养和信息辨别能力,共同构建一个更安全、更负责任的数字健康信息生态。