AI入侵法庭?美国法院如何应对人工智能的挑战

0

AI 将如何重塑法律界?法庭上的秩序面临 AI 的挑战

在不久的将来,人工智能(AI)可能在法庭上扮演越来越重要的角色。然而,专家警告称,美国法院可能会忽视 AI 犯下的错误,从而对司法公正产生负面影响。法官们需要尽快提升自身在 AI 领域的专业知识,否则可能会削弱法院的权威。

法官指向一张有六根手指的手的图

AI 判决引发的担忧

最近,佐治亚州一家上诉法院的法官 Jeff Watkins 解释了为什么一个由三名法官组成的合议庭撤销了一项命令。该命令似乎是第一个已知的判决,其中法官站在了那些依赖 AI 生成的虚假案例引文来赢得法律诉讼的人一边。这一事件引发了人们对 AI 可能很快会决定法律纠纷的担忧。

专家警告说,法官忽视法庭文件中 AI 产生的幻觉可能会变得司空见惯,尤其是在通常不堪重负的下级法院。到目前为止,只有两个州采取行动,迫使法官提高他们的技术能力,以便他们能够发现 AI 的危险信号,并在理论上阻止对各级司法系统的干扰。

案件回顾:AI 乌龙事件

最近被撤销的命令出现在佐治亚州的一起离婚纠纷中。Watkins 解释说,该命令本身是由丈夫的律师 Diana Lynch 起草的。这在许多法院中是一种常见的做法,因为负担过重的法官通常依靠律师来起草命令。但是,随着律师和非律师越来越依赖 AI 来撰写和研究法律文件,这种协议今天面临着越来越严格的审查。法官们可能会因为没有仔细审查 AI 生成的引文而批准虚假的意见。

错误的命令部分依赖于“两个虚构的案例”来拒绝妻子的请愿——Watkins 认为这些案例“可能是由生成式人工智能编造的幻觉”——以及两个与妻子请愿“无关”的案例。

在上诉后,Lynch 被处以 2,500 美元的制裁,而丈夫的回应——似乎也是由 Lynch 准备的——引用了 11 个额外的案例,这些案例“要么是幻觉”,要么是不相关的。Watkins 进一步恼火的是,Lynch 通过引用“一个新的幻觉案例”来支持律师费的请求,他写道这“雪上加霜”。

令人担忧的是,法官无法确认虚假案例是否由 AI 生成,甚至无法确定 Lynch 是否将虚假案例插入到法庭文件中,这表明法院要追究律师对涉嫌 AI 幻觉的责任有多么困难。Lynch 没有回应 Ars 的置评请求,她的网站似乎在媒体关注此案后被撤下。

但 Watkins 指出,“这些文件中不规则之处表明它们是使用生成式 AI 起草的”,同时警告说,提交虚假意见会造成许多危害。揭露欺骗会浪费时间和金钱,而滥用 AI 可能会剥夺人们提出最佳论点的机会。虚假命令还会玷污法官和法院的声誉,并助长对司法系统的“犬儒主义”。Watkins 警告说,如果不加以控制,这些危害可能会为未来“诉讼当事人可能会通过虚伪地声称怀疑其真实性来蔑视司法裁决”铺平道路。

“我们没有关于 Appellee’s Brief 反复引用不存在的案例的原因的信息,只能推测 Brief 可能是由 AI 准备的,”Watkins 写道。

最终,Watkins 发回了此案,部分原因是虚假案例使上诉法院无法充分审查妻子撤销先前命令的请愿书。但是,无论佐治亚州案件的结果如何,最初的命令可能会永远被人们铭记为一个警示故事,警示那些因未能发现法庭中 AI 滥用行为而受到越来越多的审查的法官。

AI 误判:重蹈覆辙的风险?

德克萨斯州第五上诉法院的退休法官 John Browning 现在是 Faulkner 大学的全职法学教授。去年,他发表了一篇法律文章,Watkins 引用了这篇文章,警告律师使用 AI 的伦理风险。在文章中,Browning 强调,当时最大的担忧是律师“将使用生成式 AI 来生成他们视为最终草稿的工作成果,而不确认其中包含的信息的准确性或不运用他们自己的独立专业判断”。

如今,法官们也越来越受到同样的审查,Browning 告诉 Ars,他认为“令人恐惧的是,我们将看到更多”像佐治亚州离婚纠纷这样的案例,其中“审判法院不知不觉地纳入了律师在拟议命令中包含的虚假案例引文”,甚至可能在“拟议的事实调查结果和法律结论中”。

“我可以想象在任何数量的情况下都会出现这种情况,其中审判法官保持着繁重的案件量,并希望律师合作提交拟议的命令,包括不仅是家庭法案件,还有其他民事甚至刑事案件,”Browning 告诉 Ars。

美国州法院中心(一家代表法院领导和专业人士的非营利组织,他们倡导更好的司法资源)的报告显示,像 ChatGPT 这样的 AI 工具使大量立案人和无法负担律师费的无代理诉讼当事人更容易立案更多案件,这可能会进一步加剧法院的负担。

普林斯顿语言 + 法律、人工智能与社会 (POLARIS) 实验室的研究员 Peter Henderson 告诉 Ars,他预计像佐治亚州离婚纠纷这样的案件目前不会每天都发生。

他认为,很可能“一些幻觉引文被忽视了”,因为通常情况下,虚假案例会通过“美国法律制度的对抗性”来标记。Browning 进一步指出,审判法官通常“非常勤奋地发现律师何时引用可疑的权威或误导法院关于真实案例的实际说法或立场”。

Henderson 同意 Browning 的观点,即“在案件量大得多且对抗性程序较少的法院中,这种情况可能会更频繁地发生”。但 Henderson 指出,上诉法院发现虚假案例是对抗性程序起作用的一个例子。

虽然在这种情况下是正确的,但似乎任何因离婚法律程序而筋疲力尽的人,例如,如果没有精力和资源来发现和推翻错误的命令,可能不会提起上诉。

法官的 AI 能力受到越来越多的质疑

虽然最近的历史证实,律师可能会因引用 AI 生成的虚假案例而受到制裁、被公司解雇或被暂停执业,但法官可能只会因未能发现律师的错误,甚至因使用 AI 来研究自己的意见而面临尴尬。

并非每位法官都准备好在没有适当审查的情况下接受 AI。为了保护法律体系,一些法官已经禁止了 AI。其他人则要求披露——有些人甚至要求知道使用了哪些特定的 AI 工具——但这种解决方案并未在所有地方流行。

即使所有法院都要求披露,Browning 指出,披露仍然不是一个完美的解决方案,因为“律师甚至可能难以辨别他们是否使用了生成式 AI”,因为 AI 功能越来越嵌入到流行的法律工具中。Browning 建议,有一天,“最终可能会变得不合理”地期望律师“验证每个生成式 AI 的输出”。

正如密歇根州的一个司法伦理小组得出的结论,最有可能的是,法官将确定“在 AI 不断扩展的使用中,其法院的最佳行动方案”,Browning 的文章指出。这位前法官告诉 Ars,这就是为什么对律师和法官来说,教育将是关键,因为 AI 会不断发展并在法院系统中变得更加主流。

在即将于 2025 年夏季发表在《上诉实践与程序杂志》上的一篇文章“AI 法官的黎明”中,Browning 试图通过说 AI 尚未助长法律反乌托邦来安抚读者。这位前法官表示,人类不太可能很快面临“机器人法官”发表 AI 生成的意见。

至少有两个州——密歇根州和西弗吉尼亚州——“已经发布了司法伦理意见,要求法官在 AI 方面具有‘技术能力’,”Browning 告诉 Ars。他指出,“其他州最高法院已经通过了关于 AI 的官方政策”,进一步向法官施压,要求他们加强对 AI 的了解。

与此同时,一些州已经成立了工作组来监督其区域法院系统并发布 AI 指南,而弗吉尼亚州和蒙大拿州等州已经通过了法律,要求对刑事司法决策中使用的任何 AI 系统进行人工监督。

法官必须准备好发现明显的 AI 危险信号

在法院弄清楚如何驾驭 AI 之前——这个过程在不同的法院可能会有所不同——Browning 倡导对法官进行更多的教育和道德指导,以指导他们对 AI 的使用和态度。这可能有助于使法官能够避免对许多 AI 陷阱的无知和对 AI 输出的过度自信,从而可能保护法院免受 AI 幻觉、偏见和证据挑战,这些幻觉、偏见和证据挑战会偷偷地通过需要人工审查的系统并扰乱法院系统。

教育法官的一个被忽视的部分可能是揭露 AI 到目前为止在美国各地法院的影响。Henderson 的团队正在计划一项研究,以跟踪律师在法院中使用最多的模型。Henderson 告诉 Ars,这可能会揭示“这些模型正在推动的潜在法律论点”以影响法院——以及可能需要哪些司法干预。

“在未来几年内,研究人员——比如我们小组中的研究人员,POLARIS 实验室——将需要开发新的方法来跟踪 AI 将产生的巨大影响,并了解干预的方法,”Henderson 告诉 Ars。“例如,是否有任何模型在许多不同的案例中推动对法律学说的特定观点?它是否经过明确的培训或指示这样做?”

Henderson 还倡导“一个开放、免费的案例法集中存储库”,这将使每个人更容易检查虚假的 AI 引文。Henderson 说:“有了这样一个存储库,像我们这样的团体更容易构建可以快速准确地验证引文的工具。”这可能是对当前分散式法院报告系统的重大改进,该系统通常会将案例信息隐藏在各种付费墙后面。

麻省理工学院“负责任地使用生成式 AI 于法律工作组”的联合主席 Dazza Greenwood 没有时间发送评论,但向 Ars 指出了一个 LinkedIn 帖子,他在帖子中建议可能需要采取结构性措施,以确保每次都能发现所有虚假的 AI 引文。

他建议法院创建一个“奖励系统,其中对方或法院的其他官员因报告司法文件中引用的他们首先报告的虚构案件而获得制裁金”。这样,律师就会知道他们的工作将“始终”受到检查,因此如果他们一直在自动提交 AI 起草的文件,则可能会改变他们的行为。反过来,这可以减轻法官充当看门人的压力。它也不会花费太多——主要只是重新分配律师因 AI 发现者而受到的制裁的确切金额。

Greenwood 建议,可能需要像这样的新颖解决方案。在回答一个问题,询问“羞耻和制裁”是否足以阻止法院中的 AI 幻觉时,Greenwood 说,消除 AI 错误是势在必行的,因为它“给本来通常是好律师和本来通常是好技术的律师带来了不好的名声”。继续禁止 AI 或暂停律师作为首选解决方案可能会在案件可能激增的同时耗尽法院资源,而不是可能正面应对问题。

当然,不能保证奖励系统会起作用。但是“你是否确信你的治疗方法将受到单独检查,并且伪造的引文将被报告,这是否足以最终……说服那些偷工减料的律师不要偷工减料?”

在缺乏像 Henderson 想要构建的虚假案例检测器的情况下,专家告诉 Ars,法官可以注意一些明显的危险信号,以发现 AI 幻觉的文件。

Henderson 告诉 Ars,任何案例编号中包含“123456”都可能需要审查。Browning 还指出,AI 倾向于混淆案例的地点。“例如,引用一个据称是德克萨斯州案例的案例,该案例具有“S.E. 2d”记者将没有意义,因为德克萨斯州案例将在西南记者中找到,”Browning 说,并指出一些上诉法官已经依靠这个危险信号来发现 AI 滥用。

如果 Henderson 的实验室想要制作的开源工具更容易检查这些危险信号,但 Browning 说,任何使用过聊天机器人的人都可能熟悉 AI 使用的其他明显迹象。

“有时,危险信号是从幻觉案例中引用的语言;如果它具有有时会暴露 AI 使用的生硬语言,它可能是一种幻觉,”Browning 说。

法官已经发布 AI 辅助意见

一些州已经组建了像 Greenwood 这样的工作组来评估在法院中使用 AI 的风险和收益。在佐治亚州,佐治亚州司法委员会人工智能和法院特设委员会在 7 月初发布了一份报告,提供了“建议,以帮助维持公众对司法系统的信任和信心,因为在该州使用 AI 的情况越来越多”。

采纳该委员会的建议可以建立“长期领导和治理”;批准的 AI 工具存储库、司法专业人员的教育和培训;以及佐治亚州法院使用的 AI 的更多透明度。但该委员会预计,在 AI 使用持续增长的同时,需要三年时间才能实施这些建议。

随着法官开始探索使用 AI 助手来帮助起草他们的文件,这可能会使事情进一步复杂化,该委员会得出结论,现在判断是否应该更改法官的行为准则以防止“无意中使用有偏见的算法、不当委托给自动化工具或在司法决策中滥用 AI 生成的数据”还为时过早。这意味着,至少目前,在佐治亚州不会有行为准则的更改,在那里发现了唯一一起据信 AI 幻觉已经影响了法官的案件。

值得注意的是,该委员会的报告还证实,法院没有可遵循的榜样,因为“在司法系统采用 AI 技术方面,没有完善的监管环境”。Browning 曾担任现已解散的德克萨斯州 AI 工作组的主席,他告诉 Ars,缺乏指导的法官需要保持警惕,以避免践踏合法权益。(德克萨斯州律师协会的一位发言人告诉 Ars,该工作组的工作“已经结束”,“导致成立了新兴技术新常设委员会”,该委员会在最近推出的 AI 工具包中为法官提供了一般的提示和指导。)

“虽然我绝对认为律师在使用 AI 方面有自己的职责,但我认为法官在 AI 使用方面也有类似的责任保持警惕,”Browning 说。

Browning 建议,法官将继续筛选来自代表自己的诉讼当事人以及可能更倾向于使用 AI 的有前途的年轻律师,甚至是有经验的律师提交的 AI 驱动的材料,这些律师因未能检查 AI 草案而被处以高达 5,000 美元的制裁。

在他的即将发表的“AI 法官”文章中,Browning 指出了至少一位法官,第 11 巡回上诉法院法官 Kevin Newsom,他已将 AI 作为“迷你实验”,用于准备关于涉及保险范围问题的民事案件和侧重于量刑指南的刑事案件的意见。Browning 似乎呼吁法官的自尊心,让他们加强学习,以便他们可以使用 AI 来增强他们的决策能力,并可能扩大公众对法院的信任,而不是破坏它。

“无论可以支持法官决策的技术进步如何,最终责任将始终由血肉之躯的法官及其对非常人性化的品质——法律推理、同情心、对公平的强烈尊重和对道德的坚定承诺——的应用来承担,”Browning 写道。“这些品质永远无法通过 AI 工具复制。”

Ashley Belanger 的照片