在未来的法律领域,人工智能(AI)的应用正日益普及,但同时也带来了前所未有的挑战。美国法院系统正面临着一个严峻的问题:法官们是否已准备好应对AI可能带来的错误和滥用?专家警告称,许多法院,尤其是那些事务繁琐的基层法院,极有可能忽略AI生成的虚假信息,从而对司法公正构成威胁。
AI乌龙:佐治亚州的离婚案
最近,佐治亚州发生了一起引人注目的案件,一位法官在离婚纠纷中采纳了一份包含虚假AI生成案例引用的法律文件。这一事件凸显了AI在法律领域应用中的潜在风险。该案件中,丈夫的律师提交的法律文件中引用了两个虚构的案例,以及两个与案件无关的案例,这些引用被认为是AI捏造的“幻觉”。
法官Jeff Watkins对此表示担忧,认为律师过度依赖AI生成的内容,而未进行充分核实。尽管律师受到了2500美元的制裁,但这一事件暴露了法院在审查AI生成内容时可能面临的困难。更令人担忧的是,法官无法确定这些虚假案例是否由AI生成,或者律师是否故意插入这些虚假信息。这表明,即使面对可疑的AI幻觉,法院也很难追究律师的责任。
Watkins法官警告说,提交虚假意见会浪费时间和金钱,还会剥夺人们提出最佳论点的机会。虚假命令还会玷污法官和法院的声誉,并助长对司法系统的愤世嫉俗。如果不加以控制,这些危害可能会为未来“诉讼当事人可能会不真诚地声称怀疑司法裁决的真实性,从而试图蔑视司法裁决”铺平道路。
专家观点:AI误判或成常态
法学教授John Browning认为,佐治亚州的这起案件并非孤例,随着AI在法律领域的应用越来越广泛,类似的AI误判事件可能会越来越频繁地发生。他强调,律师和法官都需要提高警惕,以识别和纠正AI可能产生的错误。
Browning教授指出,许多法官事务繁忙,可能会依赖律师提交的法律文件,而忽略对其中引用的案例进行仔细核实。这为AI生成虚假信息提供了可乘之机。他建议,法院应加强对法律文件的审查,并鼓励律师在使用AI时保持谨慎。
AI加剧法院负担
美国国家州法院中心(National Center for State Courts)的报告显示,像ChatGPT这样的人工智能工具让大量立案者和请不起律师的无代理诉讼人更容易提起更多案件,这可能会进一步拖累法院。
普林斯顿大学POLARIS实验室的研究员Peter Henderson也认为,佐治亚州的离婚纠纷案件可能不会每天都发生。
他表示,可能“有一些被忽略的幻觉引用”,因为通常情况下,虚假案件会通过“美国法律体系的对抗性”被标记出来。Browning进一步指出,出庭法官通常“非常勤奋,能发现律师何时引用可疑的权威,或在真实案件的实际说法或立场上误导法庭”。
Henderson也同意Browning的观点,即“在案件量大得多、对抗性程序较少的法院中,这种情况可能更频繁地发生”。但Henderson指出,上诉法院发现虚假案件是对抗性程序发挥作用的一个例子。
虽然在这种情况下是这样,但似乎任何因离婚法律程序而精疲力竭的人,如果没有精力或资源来发现和推翻错误的命令,可能不会提起上诉。
法官的AI胜任力备受质疑
虽然最近的历史证实,律师有因引用虚假AI生成的案例而受到制裁、被公司解雇或被暂停执业的风险,但法官可能只会因未能发现律师的错误,甚至因使用AI来研究自己的观点而面临尴尬。
并非每位法官都准备好在没有适当审查的情况下接受AI。为了保护法律系统,一些法官已经禁止了AI。其他人则要求披露——有些人甚至要求知道使用了哪些特定的AI工具——但这种解决方案并没有在所有地方流行起来。
Browning指出,即使所有法院都要求披露,披露仍然不是一个完美的解决方案,因为“律师可能很难辨别他们是否使用了生成式AI”,因为AI功能越来越多地嵌入到流行的法律工具中。Browning表示,有一天,“最终可能变得不合理地期望”律师“验证每一个生成式AI的输出”。
Browning的文章指出,最有可能的是——正如密歇根州的一个司法道德小组所总结的那样——法官将根据AI不断扩大的使用情况来确定“其法院的最佳行动方案”。这位前法官告诉Ars,这就是为什么对于律师和法官来说,随着AI的发展并在法院系统中变得更加主流,教育将是关键。
在即将于2025年夏季发表在《上诉实践与程序杂志》上的一篇文章“AI法官的黎明”中,Browning试图通过说AI尚未助长法律反乌托邦来安抚读者。这位前法官表示,人类不太可能很快面临“机器人法官”发表AI生成的意见。
至少有两个州——密歇根州和西弗吉尼亚州——“已经发布了司法伦理意见,要求法官在涉及AI时具有‘技术能力’”,Browning告诉Ars。他指出,“其他州最高法院已经通过了关于AI的官方政策”,进一步向法官施压,要求他们加强对AI的了解。
与此同时,一些州已经成立了工作组来监督其区域法院系统并发布AI指导,而弗吉尼亚州和蒙大纳州等州已经通过了法律,要求对刑事司法决策中使用的任何AI系统进行人工监督。
法官必须准备好发现明显的AI危险信号
在法院弄清楚如何使用AI之前——这个过程在不同的法院可能看起来有所不同——Browning主张对法官进行更多的教育和道德指导,以指导他们使用AI和对AI的态度。这可以帮助法官避免对许多AI陷阱的无知和对AI输出的过度自信,从而可能保护法院免受AI幻觉、偏见和证据挑战的影响,这些挑战可能会偷偷通过需要人工审查的系统,扰乱法院系统。
教育法官一个被忽视的部分可能是揭示AI迄今为止在美国各地法院的影响。Henderson的团队正在计划一项研究,跟踪律师在法院中使用最多的模型。Henderson告诉Ars,这可能会揭示“这些模型正在推动的潜在法律论点”以影响法院——以及可能需要哪些司法干预。
Henderson告诉Ars:“在未来几年里,像我们小组POLARIS实验室中的研究人员将需要开发新的方法来跟踪AI将产生的巨大影响,并了解进行干预的方法。”“例如,是否有任何模型在许多不同的案件中推动对法律原则的特定观点?它是否经过明确的培训或指示这样做?”
Henderson还主张建立“一个开放、免费的案例法集中存储库”,这将使每个人更容易检查虚假的AI引用。Henderson说:“有了这样的存储库,像我们这样的团队更容易构建可以快速准确地验证引用的工具。”对于目前分散的法院报告系统来说,这可能是一个重大改进,因为该系统经常将案例信息隐藏在各种付费墙后面。
麻省理工学院“负责任地使用生成式人工智能进行法律工作”工作组的联合主席Dazza Greenwood没有时间发送评论,但他向Ars指出了一个LinkedIn线程,他在其中建议可能需要采取结构性措施来确保每次都能发现所有虚假的AI引用。
他建议,法院创建一个“奖励系统,让对方或法院的其他官员因举报司法文件中引用的虚假案件而获得制裁 выплаты”。这样,律师就会知道他们的工作将“始终”受到检查,因此如果他们一直在自动提交AI起草的文件,可能会改变他们的行为。反过来,这可以减轻法官担任监督员的压力。而且这也不会花费太多——主要只是重新分配律师因AI发现者而受到的制裁费用。
Greenwood建议,可能需要像这样的新颖解决方案。在回答一个问题,询问“羞辱和制裁”是否足以阻止法院中的AI幻觉时,Greenwood表示,消除AI错误是当务之急,因为它“给本来总体上优秀的律师和本来总体上优秀的技术带来了坏名声”。继续禁止AI或暂停律师作为首选解决方案可能会耗尽法院资源,就像案件可能激增一样,而不是可能正面应对问题。
当然,不能保证奖励系统会奏效。但是“这种确定的信心,即你的治疗方法将受到单独检查,并且虚构的引用将被报告,是否足以最终……说服那些偷工减料的律师不应该偷工减料?”
在没有像Henderson想要构建的虚假案例检测器的情况下,专家告诉Ars,法官可以注意一些明显的危险信号来发现AI幻觉文件。
Henderson告诉Ars,任何案例编号中带有“123456”的内容可能都需要审查。Browning还指出,AI也倾向于混淆案例的地点。“例如,引用所谓的德克萨斯州案例,其中包含‘S.E. 2d’记者是不合理的,因为德克萨斯州案例可以在西南记者中找到,”Browning说,并指出一些上诉法官已经依靠这个危险信号来发现AI的滥用。
如果Henderson的实验室想要制造的开源工具更容易检查这些危险信号,但Browning表示,任何使用过聊天机器人的人都可能熟悉AI使用的其他明显迹象。
Browning说:“有时,危险信号是从幻觉案例中引用的语言;如果它具有有时会暴露AI使用的一些僵硬语言,那可能是一种幻觉。”
法官已经发布AI辅助的意见
包括Greenwood的工作组在内的几个州已经组建了工作组来评估在法院中使用AI的风险和收益。在佐治亚州,佐治亚州司法委员会人工智能和法院特别委员会于7月初发布了一份报告,提供了“建议,以帮助在司法系统中随着AI的使用增加,保持公众的信任和信心”。
采纳该委员会的建议可以建立“长期领导和治理”;批准的AI工具、司法专业人员的教育和培训的存储库;以及佐治亚州法院使用的AI的更多透明度。但是,委员会预计需要三年时间才能实施这些建议,而AI的使用仍在继续增长。
由于法官开始探索使用AI助手来帮助起草文件,这可能会使事情进一步复杂化,该委员会的结论是,现在判断是否应该修改法官的行为准则以防止“无意中使用有偏见的算法,不当委派给自动化工具或在司法决策中滥用AI生成的数据”还为时过早。这意味着,至少目前而言,佐治亚州不会对行为准则进行修改,在那里,人们认为AI幻觉影响法官的唯一案例已经找到。
值得注意的是,该委员会的报告还证实,没有法院可以效仿的榜样,因为“在司法系统采用AI技术方面没有完善的监管环境”。Browning曾是现已解散的德克萨斯州AI工作组的主席,他告诉Ars,缺乏指导的法官需要保持警惕,以避免践踏法律权利。(德克萨斯州律师协会的一位发言人告诉Ars,该工作组的工作“已经结束”,并“导致创建了新的新兴技术常设委员会”,该委员会在最近推出的AI工具包中为法官提供了一般的技巧和指导。)
“虽然我绝对认为律师在AI使用方面有自己的职责,但我认为法官在AI使用方面也有类似的责任保持警惕,”Browning说。
法官将继续筛选来自代表自己的诉讼当事人以及可能更倾向于使用AI的新兴年轻律师的AI驱动的提交材料,甚至包括因未能检查AI草案而被处以高达5,000美元制裁的经验丰富的律师,Browning建议。
在他的即将发表的“AI法官”文章中,Browning指出了至少一位法官,即第11巡回上诉法院法官Kevin Newsom,他已经使用AI作为“迷你实验”,为涉及保险范围问题的民事案件和侧重于量刑指南的刑事案件准备意见。Browning似乎呼吁法官的自我意识,让他们学习,以便他们可以使用AI来增强他们的决策能力,并可能扩大公众对法院的信任,而不是破坏它。
“无论可以支持法官决策的技术进步如何,最终责任将始终由血肉之躯的法官以及他对非常人性化的品质——法律推理、同情心、对公平的强烈关注和对道德的坚定承诺——的应用承担,”Browning写道。“这些品质永远无法被AI工具复制。”