近年来,法院系统正面临一场前所未有的危机——由AI生成虚假案例引用引发的"流行病"。随着人工智能技术在法律领域的广泛应用,越来越多的律师被发现提交包含AI"幻觉"的法律文件,即AI编造的不存在的案例引用。这一现象不仅浪费了法院和当事人的宝贵时间,还对司法系统的诚信构成了严重威胁。
"我不知道我在用AI"——最常见的借口
自2023年虚假AI引用开始被公开报道以来,最受欢迎的借口是律师声称不知道自己使用了AI来起草法律文件。这种借口有多种表现形式:
- 声称误将AI结果视为普通搜索结果:一位加利福尼亚律师声称,他被Google AI摘要功能"欺骗",将其误认为是典型的Google搜索结果。
- 归咎于下属:许多律师使用此借口时倾向于指责下属,有时甚至会归咎于客户。本月一位德克萨斯律师在被制裁前,不断推卸责任,最终法院不得不传唤其客户作证,揭示她在起草异常文件中扮演了重要角色。
- 客户参与辩护:当法院询问"您的客户是律师吗?"时,这位律师回答:"不,完全不是,她只是在帮我处理案件理论方面的问题。"
"我不知道聊天机器人会产生幻觉事实"——日益无效的辩解
另一个常见的辩解是律师假装不知道聊天机器人容易产生幻觉事实。最近的案例表明,这个借口可能正在演变成变种:
- 要求AI增强说服力:上月一位被制裁的俄克拉荷马律师承认,他只是要求ChatGPT"让他的写作更有说服力",并没有期望它会添加新的引用。
- 多重AI检查失败:9月,一位加利福尼亚律师陷入类似困境——被处以高达10,000美元的罚款,法官称这一罚款"保守"。这位律师要求ChatGPT"增强"他的简报,然后通过其他AI平台运行"增强"的简报以检查错误,却从未阅读过这些"增强"的简报。
如今,这些老套的借口已经不太有说服力,特别是在已经制定了指导方针来解决AI幻觉问题的法院中。然而,法院所要求的快速承认错误,一些律师似乎已经变得绝望,Ars发现许多人引用常见的技术问题作为引用虚假案例的原因。
怀疑时,怪黑客?
在一个极端案例中,看看纽约市民事法院,一位名叫Innocent Chinweze的律师最初承认使用Microsoft Copilot起草了错误的文件,然后奇怪地转向声称AI引用是由于他电脑上发现的恶意软件。
Chinweze说他创建了一个带有正确引用的草稿,但随后被黑客攻击,允许"行为者"获得"未经授权的远程访问",据说在他的文件中添加了错误。
法官对此表示怀疑,将这一描述为"难以置信且没有根据的陈述",特别是由于没有先前草稿存在的证据。相反,Chinweze请求传专家作证证明黑客确实发生,要求在法院权衡专家分析之前结束制裁程序。
然而,法官Kimon C. Thermos不必权衡这一论点,因为法院午休后,律师再次"戏剧性地"改变了自己的立场。
Thermos在发布制裁命令的裁决书中写道:"他不再希望为关于恶意软件或未经授权访问其电脑的专家作证而休会,"他"退回到"他的原始立场,即他使用Copilot辅助研究,并没有意识到它可能生成虚假案例。"
然而,比起律师奇怪的恶意软件论点,可能更让Thermos恼火的是Chinweze在制裁听证当天提交的一份文件。法官指出,该文件包含多个由以下文本开头的摘要:
一些案例元数据和案例摘要是在AI的帮助下编写的,AI可能会产生不准确的内容。您在将其用于法律研究目的之前,应阅读完整的案例。
Thermos谴责Chinweze继续鲁莽地使用AI。他抨击这份文件是"一份88页长、没有结构、包含所引用案例的大部分全文、且显示所引用案例的讨论/分析部分有明显迹象是由人工智能撰写的混乱文件。"
最终,Thermos命令Chinweze支付1,000美元,这是Ars审查的案例中律师收到的最典型罚款。然后,法官采取了一项额外的非金钱制裁措施,将这位律师转交给一个纪律委员会,"鉴于他的不当行为是实质性的,并且严重涉及他的诚实、可信度和从事法律实践的资格。"
笔记本电脑上切换窗口很困难
在阿拉巴马州,一位名叫James A. Johnson的律师犯了一个"令人尴尬的错误",他说这主要是因为在笔记本电脑上切换窗口很困难,美国地方法院法官Terry F. Moorer在10月的制裁命令中指出。
Johnson解释说他不小心使用了一个他不知道会产生幻觉的AI工具。他说这发生在他"在外州医院照顾正在从手术中恢复的家庭成员"时。他说他匆忙起草文件是因为他收到通知,客户的会议突然"在法院日程上提前了。"
Johnson解释说,"在时间压力和个人困难的情况下",他决定不使用阿拉巴马州律师协会提供的Fastcase研究工具来研究文件。在他的笔记本电脑上工作,他转而使用"一个名为Ghostwriter Legal的Microsoft Word插件",因为"它自动出现在Word的侧边栏中,而Fastcase需要通过阿拉巴马州律师协会网站打开单独的浏览器才能访问。"
对Johnson来说,"用触摸板在[他的]笔记本电脑上的程序之间来回切换感觉很繁琐",这意味着他"不幸地成为了一个开放且可用的新程序的诱惑的受害者。"
Moorer似乎对Johnson声称他像ChatGPT这样的工具不可靠,但没有期望其他AI法律工具也是如此的说法感到不以为然——特别是"Ghostwriter Legal的信息明确表明它使用ChatGPT作为其默认AI程序,"Moorer写道。
这位律师的客户同样感到反感,当场决定放弃Johnson,尽管这冒着"审判显著延迟"的风险。Moorer指出,Johnson似乎因客户的突然决定而动摇,表现为"他震惊、沮丧和情绪化的表情。"
更换新律师可能会消耗更多资金。Moorer进一步指出,Johnson似乎让AI为他代劳,而他是代表政府工作的。但正如法官所指出的,"指定律师的公共资金不是一个无底洞,而是有限的资源。"
Moorer得出结论:"很明显,基本的谴责和小额罚款不足以阻止这种不当行为,因为如果是这样,我们就不会在这里了。"
裁定Johnson对AI的依赖"相当于恶意",Moorer处以5,000美元罚款。法官本会"考虑取消资格,但这变得毫无意义",因为Johnson的客户已经解雇了他。
被问及评论时,Johnson告诉Ars:"法院对事实的认定明显错误,制裁正在上诉中。"
受登录问题困扰
正如一位佐治亚州律师所述,有时提交虚假AI引用可能是因为律师意外提交了草稿而不是最终版本。
其他律师声称,当他们难以访问Westlaw或LexisNexis等法律工具时,他们会按需求助于AI。
例如,在爱荷华州,一位律师告诉上诉法院,她在经历了"与Westlaw订阅相关的登录问题"后,后悔依赖"次要的AI驱动研究工具"。尽管法院"对技术问题,如登录问题表示同情",但这位律师还是受到了制裁,主要是因为她只在法院命令她解释错误后才承认使用AI。然而,在她的案例中,她可以选择支付最低150美元的罚款或参加"两小时针对AI的法律伦理培训。"
一位律师因对归咎于AI工具的不准确性撒谎而受到的制裁较少同情,路易斯安那州的案例表明。在该案例中,法官在律师声称AI幻觉来自"使用Westlaw Precision,一个AI辅助研究工具,而不是Westlaw的独立法律数据库"后,要求查看研究历史。
事实证明,这位律师外包了研究工作,依赖一个"已被暂停"的律师的AI引用,并且只是"假设"这位律师的错误来自Westlaw的AI工具。暂停执业的律师实际使用了什么工具尚不清楚,他可能失去了Westlaw的登录权限,但签署文件的律师在"同意Westlaw没有生成编造的引用""后,法官命令处以1,000美元罚款。
法官警告"连续幻觉制造者"
Ars的审查发现,另一位律师伊利诺伊州的William T. Panichi至少被制裁了三次。
对他7月最初判处的处罚作出回应时,他承认在"研究软件之间"时被AI所诱惑。
在该案中,法院发现律师自相矛盾,因此下令实施更严厉的制裁。
法院命令称,Panichi"同时承认使用AI生成简报,没有进行任何独立研究,甚至他'自己几乎对这次上诉没有做任何个人工作'",同时却辩称收取更高的费用——据说是因为这个案例"在花费时间方面非同寻常",他的办公室"在获取信息方面做了一些出色的工作"。
法院认为这种AI滥用如此严重,以至于Panichi除了被处以1,000美元罚款外,还被命令退还他收到的"6,925.62美元付款"。
Panichi在7月告诉法院:"如果我有幸能够继续在上诉法院执业,我不会再这么做了,"就在8月又受到两轮制裁之前。
Panichi没有立即回应Ars的评论请求。
当发现AI生成的幻觉时,罚款通常支付给法院、对方律师或两者,具体取决于谁的时间和资源被浪费在核对虚假案例上。
律师似乎更倾向于反对向对方律师支付罚款,希望将罚款保持在尽可能低的水平。一位律师甚至辩称,"在LexisNexis或Westlaw中输入引用只需要7.6秒,而不是几个小时",同时似乎忽略了这样一个事实:她没有花这宝贵的几秒钟来检查自己的引用。
该案法官Nancy Miller明确表示:"此类陈述显示出对律师义务令人震惊的无知,"指出"纠正错误和虚假引用的责任永远不会转移到对方律师或法院,即使他们是第一个注意到错误的人。"
Miller说:"减轻此类错误造成的损害的责任仍然在于签署者。" "尽快正确纠正这些错误,无论是通过撤回还是修改和补充有问题的诉状,涉及的每个人浪费的时间就越少,产生的成本也越少。"
德克萨斯州联邦地方法官Marina Garcia Marmolejo表示同意,解释说,确定其他法官如何应对虚假AI引用会浪费更多时间。
她说:"在这个国家最繁忙的法院日程之一,几乎没有资源可以用来首先找出错误的AI引用,更不用说调查这个主题不断增长的判例法了。"
至少佛罗里达州一家法院"震惊,震惊"地发现,一位律师在滥用AI后拒绝支付对方律师声称应得的费用。该案中的律师James Martin Paul要求支付所欠费用和成本的四分之一以下,辩称Charlotin的数据库显示,他可能 otherwise 需要支付"迄今为止因使用AI生成判例法而支付的最大罚款。"
但佛罗里达州法院发现,"屈服于Paul的论点只会使连续的幻觉制造者受益"。最终,Paul因法院所称的"比数据库中其他被指控者的行为严重得多"的行为被制裁超过85,000美元,谴责他"重复、滥用、恶意的行为,不能被视为合法的法律实践,必须被制止。"
Paul没有立即回应Ars的评论请求。
伊利诺伊州美国破产法官Michael B. Slade似乎已经厌倦了权衡借口,呼吁所有律师停止给法院带来负担的AI捷径。
Slade直言不讳地写道:"坦率地说,到目前为止,任何不知道使用生成式AI平台进行法律研究就是玩火的律师都是活在自己的世界里。"
未来展望
随着AI技术在法律领域的持续发展,律师和法院都需要找到平衡点。AI可以提高法律研究的效率,但也带来了前所未有的风险。法院正在积极制定指导方针,而律师则需要提高对AI局限性的认识,并承担起核实AI生成内容的最终责任。
这场危机不仅是关于技术使用的挑战,更是关于法律职业核心价值观的考验。在追求效率的同时,法律专业人士不能牺牲准确性、诚信和责任感。正如一位法官所言,"纠正错误和虚假引用的责任永远不会转移到对方律师或法院"——这一原则在AI时代比以往任何时候都更加重要。









