AI入侵法庭?当人工智能“幻觉”威胁司法公正

1

AI 审判:当人工智能的错误成为法律的盲点

在科技飞速发展的今天,人工智能(AI)正以前所未有的速度渗透到我们生活的方方面面。然而,当 AI 走进庄严肃穆的法庭,它带来的不仅仅是效率的提升,还有潜在的危机。

A judge points to a diagram of a hand with six fingers

最近,美国佐治亚州的一起离婚案件引发了广泛关注。一名律师在法庭文件中引用了由 AI 生成的虚假案例,而法官在未加核实的情况下采纳了这些信息,险些酿成冤案。这一事件并非孤例,专家警告称,随着 AI 在法律领域的应用日益普及,法官对 AI 错误的疏忽可能成为一种普遍现象,尤其是在那些案件量巨大的基层法院。

AI 幻觉:法律界的潜在危机

所谓的“AI 幻觉”,指的是 AI 在生成内容时,无中生有地捏造信息。在法律领域,这可能意味着 AI 生成虚假的案例引用、法律条款或事实陈述。如果法官未能及时发现这些错误,可能会导致错误的判决,甚至影响司法公正。

佐治亚州的这起案件就是一个典型的例子。案件中,律师戴安娜·林奇在提交的法庭文件中引用了两个虚构的案例,以及两个与案件毫不相关的案例。更令人震惊的是,在妻子提起上诉后,林奇提交的回应文件中又出现了 11 个虚构或不相关的案例。最终,林奇受到了 2500 美元的罚款,但这一事件也暴露了当前法律体系在应对 AI 错误方面的不足。

法官杰夫·沃特金斯表示,他无法确定这些虚假案例是否由 AI 生成,也无法确定林奇是否故意将这些案例插入法庭文件中。这反映了法院在追究律师 AI 滥用责任时面临的困难。沃特金斯警告说,提交虚假意见会浪费时间和金钱,AI 滥用会剥夺人们提出最佳论点的机会。虚假的命令还会玷污法官和法院的声誉,并助长对司法系统的“愤世嫉俗”。如果不加以控制,这些危害可能会为这样一种未来铺平道路:诉讼当事人可能会通过虚伪地声称怀疑其真实性来藐视司法裁决。

法官的 AI 素养:迫在眉睫的需求

面对 AI 带来的挑战,提升法官的 AI 素养显得尤为重要。目前,只有密歇根州和西弗吉尼亚州采取行动,强制要求法官提升其技术能力,以便发现 AI 错误。然而,专家认为,这还远远不够。更多的州应该效仿这两个州的做法,加强对法官的 AI 培训,使其能够识别 AI 生成内容的潜在风险。

约翰·勃朗宁是德克萨斯州第五巡回上诉法院的退休法官,也是福克纳大学的法学教授。他曾发表文章警告律师使用 AI 的道德风险。勃朗宁认为,最大的担忧是律师“将使用生成式 AI 来生成他们视为最终草稿的工作成果,而不确认其中包含的信息的准确性或不应用他们自己的独立专业判断”。

如今,法官也面临着同样的质疑。勃朗宁表示,他认为“令人震惊的是,我们会看到更多”像佐治亚州离婚纠纷这样的案件,其中“审判法院不知不觉地采纳了律师在拟议命令中包含的虚假案例引用”,甚至可能在“拟议的事实调查结果和法律结论”中也是如此。

勃朗宁表示:“我可以在任何数量的情况下设想这种情况,在这些情况下,审判法官的工作量很大,并且希望律师合作提交拟议的命令,包括不仅是家庭法案件,还有其他民事甚至刑事案件。”

AI 的双刃剑:效率与风险并存

不可否认,AI 可以提高法律工作的效率。它可以帮助律师快速检索案例、分析数据、起草文件。然而,正如任何工具一样,AI 也存在被滥用的风险。律师可能会利用 AI 生成虚假的证据、误导性的论据,甚至干扰正常的司法程序。

国家州法院中心 (National Center for State Courts) 的报告显示,像 ChatGPT 这样的 AI 工具让大量文件备案者和无力聘请律师的无代理诉讼人更容易备案更多案件,这可能会进一步拖累法院的效率。普林斯顿大学语言 + 法律、人工智能与社会 (POLARIS) 实验室的研究员彼得·亨德森 (Peter Henderson) 告诉 Ars,他预计像佐治亚州离婚纠纷这样的案件目前不会每天都发生。

他表示,可能“有一些被忽视的幻觉引用”,因为通常,虚假案件会通过“美国法律体系的对抗性”来标记。勃朗宁进一步指出,审判法官通常“非常勤奋地发现律师何时引用可疑的权威或误导法院关于真实案件的实际说法或代表的意义”。

亨德森同意勃朗宁的观点,即“在案件量大得多且对抗性程序较少的法院中,这种情况可能会更频繁地发生”。但亨德森指出,上诉法院发现虚假案件是对抗性程序运作的一个例子。

多管齐下:应对 AI 挑战的综合方案

为了应对 AI 在法律领域带来的挑战,我们需要采取多管齐下的综合方案。

首先,加强对法官和律师的 AI 培训,提高其识别 AI 错误的能力。这包括了解 AI 的工作原理、潜在的风险,以及如何有效地利用 AI 来提高工作效率。

其次,建立完善的 AI 监管机制,明确 AI 在法律领域的应用规范。这可以包括要求律师披露其使用 AI 的情况,建立 AI 伦理审查委员会,以及制定 AI 滥用的惩罚措施。

第三,推广开源的案例数据库,方便公众查询和验证案例信息。这将有助于减少 AI 幻觉造成的误导,并提高司法透明度。

亨德森的团队正在计划一项研究,追踪律师在法庭上最常使用的模型。这可以揭示“这些模型正在推动的潜在法律论点”以影响法庭——以及可能需要哪些司法干预,亨德森告诉 Ars。

亨德森还提倡建立“一个开放、免费的案例法中央存储库”,这将使每个人都可以更轻松地检查虚假的 AI 引用。亨德森说:“有了这样一个存储库,像我们这样的团队可以更轻松地构建可以快速准确地验证引用的工具。”对于当前分散的法院报告系统来说,这可能是一个重大改进,该系统通常会将案件信息隐藏在各种付费墙之后。

麻省理工学院“负责任地使用生成式人工智能进行法律工作”任务组的联合主席 Dazza Greenwood 没有时间发送评论,但他向 Ars 指出了一个 LinkedIn 帖子,他在其中建议可能需要一种结构性回应,以确保每次都能发现所有虚假的 AI 引用。

他建议法院创建一个“赏金系统,根据该系统,对方当事人或其他法院工作人员会因报告司法文件中引用的虚假案件而获得制裁金。”这样,律师就会知道他们的工作将“始终”受到检查,因此如果他们一直在自动提交 AI 起草的文件,则可能会改变他们的行为。反过来,这可以减轻法官担任监督员的压力。它也不会花费太多——主要只是重新分配律师因 AI 发现者而受到的制裁费用。

警惕 AI 的“红旗”信号

专家表示,在缺乏像亨德森想要构建的那种虚假案例检测器的情况下,法官可以注意一些明显的危险信号,以发现 AI 幻觉的文件。

亨德森告诉 Ars,任何案例编号中带有“123456”的案例可能都需要审查。勃朗宁指出,AI 也倾向于混淆案例的地点。“例如,引用德克萨斯州案件的所谓‘S.E. 2d’记者是没有意义的,因为德克萨斯州的案件可以在西南记者中找到,”勃朗宁说,并指出一些上诉法官已经依靠这个危险信号来发现 AI 的滥用。

勃朗宁说,如果你曾经使用过聊天机器人,那么那些危险信号可能更容易检查亨德森的实验室想要制作的开源工具,但还有其他一些表明 AI 使用的迹象。“有时,危险信号是从幻觉案例中引用的语言;如果它具有有时会暴露 AI 使用的生硬语言,那可能是一种幻觉,”勃朗宁说。

AI 辅助:法官的新角色

随着 AI 技术的不断发展,法官的角色也在发生变化。未来的法官不仅需要具备扎实的法律知识,还需要具备一定的 AI 素养,能够识别 AI 错误,并有效地利用 AI 来提高工作效率。

重要的是,法官需要保持独立思考和批判性思维,不能完全依赖 AI 的输出。他们需要对 AI 生成的内容进行仔细审查,并结合自己的专业知识和经验,做出公正的判断。

勃朗宁在他的即将发表的“AI 法官”文章中指出,至少有一位法官,第 11 巡回上诉法院法官凯文·纽瑟姆 (Kevin Newsom) 已经使用 AI 作为“迷你实验”,为涉及保险范围问题的民事案件和侧重于量刑指南的刑事案件准备意见。勃朗宁似乎呼吁法官们研究,以便他们可以使用 AI 来加强他们的决策,并可能扩大公众对法院的信任,而不是破坏它。

“无论哪种技术进步可以支持法官的决策,最终责任将始终由血肉之躯的法官及其对非常人性的品质——法律推理、同理心、对公平的强烈重视和对伦理的坚定承诺——的应用来承担,”勃朗宁写道。“这些品质永远无法被 AI 工具复制。”

结语:在 AI 时代捍卫司法公正

人工智能为法律领域带来了巨大的机遇,但也带来了前所未有的挑战。只有通过加强 AI 监管、提升法官素养、推广开源数据,以及保持独立思考,我们才能在 AI 时代捍卫司法公正,确保法律的尊严和权威。

在这个快速变化的时代,我们需要以开放的心态拥抱新技术,同时也要保持警惕,防止技术被滥用。只有这样,我们才能确保 AI 真正服务于人类,而不是成为威胁司法公正的潜在风险。