在法律行业,人工智能技术正以前所未有的速度改变着传统的工作方式。然而,伴随这种变革而来的是一系列令人担忧的问题,其中最引人注目的便是律师在法庭文件中使用AI生成虚假引证的现象。这种现象已经达到了如此普遍的程度,以至于一位法官称之为"流行病",正困扰着各级法院系统。
现象概述:AI幻觉在法律文书中的泛滥
自2023年AI生成的虚假引证开始被公开报道以来,这一问题已经从个别案例演变为系统性问题。法国律师兼AI研究员达米安·夏洛汀(Damien Charlotin)整理了一个数据库,记录了律师因AI幻觉而被制裁的案例。通过对其中23起案例的审查,我们发现了一个令人不安的趋势:许多律师在被发现使用AI生成虚假引证后,不是坦诚承认错误,而是试图通过各种借口来规避最严厉的制裁。

图:AI技术在法律领域的应用正带来新的挑战和风险
常见借口分析:从无知到荒谬
通过对多个案例的分析,我们可以识别出律师们在被揭穿后常用的几种借口,这些借口从看似合理的"我不知道"到完全荒谬的"我被黑客攻击了",展现了法律专业人士在面对新技术时的各种应对方式。
"我不知道我用了AI"
最受欢迎的借口是声称不知道AI被用于起草法律文件。这种借口有多种表现形式:
- 声称误将AI结果视为普通搜索结果:一位加利福尼亚律师声称,他被谷歌AI概述(Overviews)"欺骗",误将其视为普通的谷歌搜索结果。
- 归咎于下属或客户:许多律师使用这种借口时倾向于指责下属,但也有律师将责任推给客户。本月,一位德克萨斯律师在受到制裁前,多次推卸责任,最终法院不得不传唤他的客户作证,因为这位客户在起草异常文件中扮演了重要角色。
- "只是初稿":一位乔治亚州的律师声称,有时虚假的AI引证可能是因为律师不小心提交了初稿而不是最终版本。
"我不知道AI会产生幻觉"
另一个常见的借口是假装不知道聊天机器人容易产生事实幻觉。
最近的一些案例表明,这种借口可能正在演变成变种。上月,一位受到制裁的俄克拉荷马律师承认,他只是要求ChatGPT"让他的写作更有说服力",并不期望它会添加新的引证。而在9月,一位加利福尼亚律师陷入了类似的困境——被处以高达10,000美元的罚款,法官称这一罚款"保守"。那位律师要求ChatGPT"增强"他的简报,然后通过其他AI平台运行"增强"后的简报以检查错误,却从未阅读过这些"增强"的简报。
技术问题作为借口
当其他借口都不奏效时,一些律师开始将常见的技术问题作为原因来解释虚假案例的引用。
"我被黑客攻击了"

图:法律专业人士需要在拥抱新技术的同时维护行业诚信
一个极端案例出现在纽约市民事法院,一位名叫伊诺森·奇努泽(Innocent Chinweze)的律师最初承认使用微软Copilot起草了错误的文件,然后奇怪地转向声称AI引证是由于他电脑上发现的恶意软件造成的。
奇努泽说他曾创建了一个包含正确引证的草稿,但随后被黑客攻击,允许"未经授权的远程访问",据称在他的文件中添加了错误。
法官对此表示怀疑,将这一描述为"难以置信且缺乏支持的陈述",特别是没有证据表明之前的草稿存在。相反,奇努泽要求请专家作证证明黑客攻击确实发生,请求法院在考虑专家分析之前暂停制裁程序。
然而,在法院休庭后,律师再次"戏剧性地"改变了自己的立场。
法官金蒙·C·塞莫斯(Kimon C. Thermos)在发布制裁命令时写道:"他不再希望推迟以专家就恶意软件或未经授权访问其计算机作证。他退回到"最初的立场,即他使用Copilot辅助研究,没有意识到它可能生成虚假案例"。"
可能比律师奇怪的恶意软件论更让塞莫斯法官恼火的是,奇努泽在制裁听证当天提交的一份文件。法官指出,该文件包含多个以以下文本开头的摘要:
一些案例元数据和案例摘要是在AI的帮助下编写的,AI可能产生不准确的信息。在依赖它进行法律研究目的之前,您应该阅读完整案例。
塞莫斯法官谴责奇努泽继续鲁莽地使用AI。他抨击该文件是"一份88页长、没有结构、包含引用案例的大部分全文、显示引用案例的讨论/分析部分明显由人工智能撰写的混乱文件"。
"切换窗口很困难"
在阿拉巴马州,一位名叫詹姆斯·A·约翰逊(James A. Johnson)的律师称自己犯了一个"令人尴尬的错误",主要是因为在笔记本电脑上切换窗口很困难,美国地方法官特里·F·穆勒(Terry F. Moorer)在10月的制裁命令中写道。
约翰逊解释说他不小心使用了一个他没有意识到可能产生幻觉的AI工具。他说这件事发生在他"在外州医院照顾接受手术的家人成员"时。他说,他匆忙起草文件,因为他收到了通知,他的客户的会议突然"在法院日程上提前"。
约翰逊解释说,在"时间紧迫和个人情况困难"的情况下,他决定使用阿拉巴马州律师协会提供的Fastcase研究工具来起草文件。在他的笔记本电脑上工作,他选择使用"一个名为Ghostwriter Legal的Microsoft Word插件",因为"它自动出现在Word的侧边栏,而Fastcase需要通过阿拉巴马州律师协会网站打开单独的浏览器才能访问"。
对约翰逊来说,"用触摸板在笔记本电脑上的程序之间来回切换似乎很繁琐",这意味着他"不幸地成为了一个开放可用的新程序的诱惑的受害者"。
穆勒似乎对约翰逊声称他像ChatGPT这样的工具不可靠但不对其他AI法律工具抱有同样期望的说法印象深刻,特别是"Ghostwriter Legal的信息明确表示它使用ChatGPT作为其默认AI程序",穆勒写道。
这位律师的客户同样感到反感,决定当场解雇约翰逊,尽管这有"导致审判显著延迟"的风险。穆勒注意到约翰逊似乎对他的客户突然的决定感到震惊,"从他震惊、沮丧和情绪化的表现中可以看出"。
而且更换新律师可能会花掉更多钱。穆勒进一步指出,约翰逊似乎让AI代表政府做他的工作。但正如法官所指出的," appointed counsel的公共资金不是取之不尽的,而是有限的资源"。
穆勒总结道:"很明显,基本的谴责和小额罚款不足以阻止这种不当行为,因为如果足够的话,我们就不会在这里了。" 穆勒裁定约翰逊对AI的依赖"相当于恶意",处以5,000美元罚款。法官原本会"考虑取消资格,但这已经变得无关紧要",因为约翰逊的客户已经解雇了他。
被问及评论时,约翰逊告诉Ars,"法院对事实的认定明显错误,制裁正在上诉中"。
"登录问题"
正如一位乔治亚州律师所说,有时虚假的AI引证可能是因为律师不小心提交了初稿而不是最终版本。
其他律师声称,当他们在访问Westlaw或LexisNexis等法律工具时遇到问题时,他们会按需求助于AI。
例如,在爱荷华州,一位律师告诉上诉法院,在经历了"与她的Westlaw订阅相关的登录问题"后,她后悔依赖"次要的AI驱动的研究工具"。尽管法院"对技术问题表示同情,如登录问题",但该律师受到了制裁,主要是因为她只在法院命令她解释错误后才承认使用AI。然而,在这种情况下,她可以选择支付150美元的最低罚款或参加"两小时针对AI的法律伦理培训"。
"系列幻觉者"与法院的应对

图:AI幻觉问题正给司法系统带来前所未有的挑战
伊利诺伊州的威廉·T·帕尼奇(William T. Panichi)律师至少被制裁了三次,Ars的审查发现。
对他7月最初判处的处罚作出回应时,他承认在"介于研究软件之间"时受到AI的诱惑。
在这种情况下,法院沮丧地发现律师自相矛盾,因此下令实施更严厉的制裁。
法院命令说,帕尼奇"同时承认使用AI生成简报,没有做任何自己的独立研究,甚至说他'在这个上诉案中几乎没有做任何个人工作'",同时辩护收取更高的费用——据说是因为这个案例"在花费时间方面非同寻常",他的办公室"在获取信息方面做了一些出色的工作"。
法院认为这种AI滥用如此严重,以至于帕尼奇被命令退还他收到的"6,925.62美元"的付款,外加1,000美元的罚款。
帕尼奇在7月告诉法院:"如果我有幸能够在上诉法院继续执业,我不会再这样做了",然后在8月又遭到两轮制裁。
当发现AI生成的幻觉时,罚款通常会支付给法院、对方律师或两者,具体取决于谁的时间和资源被浪费在核对虚假案例上。
律师似乎更倾向于反对向对方律师支付罚款,希望尽可能保持罚款最低。一位律师甚至辩称,"在LexisNexis或Westlaw中输入引证只需要7.6秒,而不是几个小时",同时似乎忽略了没有花这些宝贵的秒数检查自己的引证这一事实。
该案法官南希·米勒(Nancy Miller)明确表示,"此类陈述显示了律师对其义务令人震惊的无知",指出"纠正错误和虚假引证的责任永远不会转移到对方律师或法院,即使他们是第一个注意到错误的人"。
米勒说:"减轻此类错误造成的损害的责任仍然在于签署人。" "此类错误得到适当纠正得越早,无论是通过撤回还是修改和补充有缺陷的诉状,涉及各方浪费的时间就越少,产生的成本也越少。"
德克萨斯州联邦地方法官玛丽娜·加西亚·莫莫莱霍(Marina Garcia Marmolejo)表示同意,她指出,确定其他法官如何应对虚假AI引证会浪费更多时间。
她说:"在这个国家最繁忙的法院日程之一,几乎没有资源可以首先找出错误的AI引证,更不用说调查这一主题不断增长的判例法了。"
至少有一个佛罗里达法院对律师拒绝在被滥用AI后支付对方律师所说的欠款感到"震惊,震惊"。该案中的律师詹姆斯·马丁·保罗(James Martin Paul)要求支付所欠费用和成本的四分之一以下,辩称夏洛汀的数据库显示,他可能 otherwise 欠下"迄今为止为使用AI生成判例法而支付的最大罚款"。
但佛罗里达法院发现,"屈从于保罗的论点只会使系列幻觉者受益"。最终,保罗因法院所称的"比数据库中其他被控者严重得多的"行为被制裁超过85,000美元,谴责他"反复的、滥用的、恶意的 conduct 不能被视为合法的法律实践,必须被制止"。
法官的警告与行业反思
伊利诺伊州美国破产法官迈克尔·B·斯莱德(Michael B. Slade)似乎已经厌倦了权衡借口,呼吁所有律师停止使用给法院带来负担的AI捷径。
斯莱德写道:"坦率地说,到目前为止,任何不知道使用生成式AI平台进行法律研究是在玩火的律师都是生活在云里。"
这一警告反映了法律行业面临的一个根本性挑战:如何在拥抱技术进步的同时维护法律实践的专业标准和诚信。
结论:法律行业的十字路口
AI幻觉问题不仅仅是一个技术问题,它触及了法律行业的核心价值——诚信、专业精神和对司法系统的尊重。随着AI技术在法律领域的应用越来越广泛,律师和法律机构需要建立明确的指导方针,确保新技术被负责任地使用。
法院已经表明,对AI滥用的容忍度正在降低,而律师们需要认识到,试图用荒谬的借口掩盖错误只会使情况变得更糟。正如一位法官所言,"最简单的路径是尽快承认AI的使用,保持谦逊,向相关法律协会自报错误,并自愿参加AI与法律课程"。
法律行业正站在一个十字路口。它可以选择拥抱AI带来的效率提升,同时建立严格的道德和程序标准;或者它可以忽视这些问题,最终面临更严格的监管和公众信任的丧失。未来几年,法律专业人士如何回应这一挑战,将决定AI技术是成为法律实践的强大工具,还是破坏其诚信的威胁。








