在当今法律界,一个令人不安的趋势正在蔓延:律师们在法庭文件中使用AI生成虚假引证,然后在被发现后编造各种令人难以置信的借口。这种现象已经达到了如此普遍的程度,以至于一位法官称之为"流行病",严重影响了司法系统的正常运作。
AI虚假引证的普遍现象
法国律师兼AI研究员达米安·夏洛廷(Damien Charlotin)整理了一个数据库,记录了律师因AI幻觉而被制裁的案件。Ars Technica审查了其中23个案例,发现法官们普遍指出,避免或减轻制裁的最简单途径是:一旦发现使用AI,立即承认错误,表现出谦逊的态度,向相关法律协会主动报告错误,并自愿参加AI与法律相关的课程。
然而,并非每位律师都选择这条阻力最小的道路。相反,许多人提出的借口在法官看来都不可信。有些甚至否认使用AI,但法官最终认定他们在说谎。
荒唐借口大赏
"我不知道这是AI生成的"
自2023年虚假AI引证开始被公开报道以来,最受欢迎的借口是"律师不知道文件是用AI起草的"。这有时意味着辩称没有意识到自己正在使用AI,就像加利福尼亚州的一位律师,他被谷歌的AI摘要(Overviews)所困,他声称这些只是典型的谷歌搜索结果。
更常见的是,使用这种借口的律师往往会归咎于下属,但有时也会责备客户。本月,一位德克萨斯州律师在多次推诿后被制裁,法庭最终不得不让他的客户出庭作证,因为律师透露客户在起草异常文件中发挥了重要作用。
"你的客户是律师吗?"法庭问道。
"不,绝对不是阁下,她只是在帮我梳理案件理论,"这位律师回答道。
"我不知道聊天机器人会产生幻觉"
另一个常见的逃避方式是律师假装不知道聊天机器人容易产生事实幻觉。
最近的案例表明,这个借口可能正在演变成变种。上个月,一位被制裁的俄克拉荷马州律师承认,他只要求ChatGPT"让他的写作更有说服力",没想到它会添加新的引证。而在9月,一位加利福尼亚州律师陷入了类似的困境——被处以高达1万美元的罚款,法官称这一处罚"保守"。这位律师要求ChatGPT"增强"他的简报,然后通过其他AI平台运行"增强"后的简报以检查错误,却从未阅读过这些"增强"后的简报。
如今,这些老掉牙的借口已经站不住脚,尤其是在已经制定指导方针应对AI幻觉的法庭。但与法庭恳求律师迅速承认错误相反,几位律师似乎变得绝望起来。Ars发现许多人将常见的技术问题作为引用虚假案例的理由。
"被黑客攻击了"
当怀疑时,指责黑客?
对于极端案例,可以看看纽约市民事法庭,那里的一位律师伊诺森·奇努泽(Innocent Chinweze)最初承认使用微软Copilot起草了错误的文件,然后奇怪地转向声称AI引证是由于他电脑上发现的恶意软件造成的。
奇努泽说他创建了带有正确引证的草稿,但随后被黑客攻击,允许"未经授权的远程访问",据称在他的文件中添加了错误。
法官对此表示怀疑,将这一描述为"令人难以置信且没有根据的陈述",特别是由于没有证据表明先前存在的草稿。相反,奇努泽请求请专家作证证明黑客攻击确实发生,要求在法庭权衡专家分析之前暂停制裁程序。
然而,法官基蒙·C·塞莫斯(Kimon C. Thermos)不必权衡这一论点,因为在法庭午餐休息后,律师再次"戏剧性地"改变了自己的立场。
"他不再希望为关于恶意软件或未经授权访问其电脑的专家作证而休会,"塞莫斯在发布制裁的命令中写道。"他退缩"到了"最初的位置,即他使用Copilot辅助研究,但没有意识到它可能生成虚假案例"。
尽管如此,塞莫斯可能比律师奇怪的恶意软件论更恼火的是,奇努泽在制裁听证当天提交的一份文件。法官指出,这份文件包含多个由以下文本开头的摘要:
一些案例元数据和案例摘要是在AI的帮助下编写的,AI可能产生不准确的内容。在依赖其进行法律研究目的之前,您应阅读完整案例。
塞莫斯谴责奇努泽继续鲁莽地使用AI。他抨击这份文件是"一份88页长、没有结构、包含所引用案例大部分全文的不连贯文档,"并显示"所引用案例的讨论/分析部分是由人工智能编写的明显迹象"。
最终,塞莫斯命令奇努泽支付1000美元,这是Ars审查的案件中律师收到的最典型罚款。然后,法官采取了一项额外的非货币制裁措施,将这位律师转交给道德委员会,"鉴于他的不当行为严重且严重涉及他的诚实、可信度和从事法律执业的资格"。
"在笔记本电脑上切换窗口太难了"
在阿拉巴马州,一位名叫詹姆斯·A·约翰逊(James A. Johnson)的律师犯了一个"令人尴尬的错误",美国地方法官特里·F·穆勒(Terry F. Moorer)在10月的制裁命令中指出。
约翰逊解释说,他不小心使用了一个他没有意识到会产生幻觉的AI工具。他说,这发生在他"在外州医院照顾正在手术康复的家庭成员"时。他说,他匆忙起草文件,因为他收到通知,客户的会议突然"提前到法院日程上"。
"在时间压力和困难个人情况下,"约翰逊解释说,他决定使用阿拉巴马州律师协会提供的Fastcase研究工具来研究文件。在他的笔记本电脑上工作,他选择使用"一个叫做Ghostwriter Legal的Microsoft Word插件",因为"它自动出现在Word的侧边栏,而Fastcase需要通过阿拉巴马州律师协会网站打开单独的浏览器来访问"。
对约翰逊来说,"用触摸板在笔记本电脑上的程序之间来回切换感到繁琐",这意味着他"不幸地成为了一个开放可用的新程序的诱惑的受害者"。
穆勒似乎对约翰逊声称他理解像ChatGPT这样的工具不可靠,但不期望其他AI法律工具也是如此的说法印象深刻——特别是"Ghostwriter Legal的信息清楚地表明它使用ChatGPT作为其默认AI程序,"穆勒写道。
这位律师的客户同样感到反感,决定当场解雇约翰逊,尽管这冒着"审判显著延迟"的风险。穆勒指出,约翰逊似乎因客户突然的决定而动摇,"他震惊、沮丧和情绪化的表情证明了这一点"。
而更换新律师可能会花掉更多的钱。穆勒进一步指出,约翰逊似乎在代表政府工作时让AI代劳。但正如法官所指出的," appointed counsel的公共资金不是无底洞,而是有限资源"。
"很明显,基本的谴责和小额罚款不足以阻止这种不当行为,因为如果是的话,我们不会在这里,"穆勒总结道。
裁定约翰逊对AI的依赖"相当于恶意",穆勒 imposed了5000美元的罚款。法官本会"考虑取消资格,但这变得毫无意义",因为约翰逊的客户已经解雇了他。
被要求发表评论,约翰逊告诉Ars,"法庭对事实做出了明显错误的认定,制裁正在上诉中"。
"被登录问题困扰"
正如一位佐治亚州律师所说,有时虚假AI引证可能被提交,是因为律师不小心提交了草稿而不是最终版本。
其他律师声称,当他们难以访问Westlaw或LexisNexis等法律工具时,他们会按需求助于AI。
例如,在爱荷华州,一位律师告诉上诉法院,在"她的Westlaw订阅遇到登录问题"后,她后悔依赖"次要的AI驱动的研究工具"。尽管法庭"对技术问题表示同情,如登录问题",但这位律师仍被制裁,主要是因为她只在法庭命令她解释错误后才承认使用AI。然而,在她的案例中,她可以选择支付150美元的最低罚款或参加"两小时针对AI的法律伦理培训"。
更不令人同情的是,一位律师在被指责为不准确的工具撒谎,路易斯安那州的案例表明。在该案中,一位法官在律师声称AI幻觉来自"使用Westlaw Precision,一个AI辅助的研究工具,而不是Westlaw的独立法律数据库"后,要求查看研究历史。
结果发现,这位律师外包了研究工作,依赖一个"目前被暂停"的律师的AI引证,并且只是"假设"这位律师的错误来自Westlaw的AI工具。暂停执业的律师实际使用了什么工具尚不清楚,他可能失去了Westlaw的登录权限,但法官在签署文件的律师"同意Westlaw没有生成编造的引证"后,下令处以1000美元的罚款。
"连环幻觉制造者"
另一位律师伊利诺伊州的威廉·T·帕尼奇(William T. Panichi)至少被制裁了三次,Ars的审查发现。
在回应7月下达的初步处罚时,他承认在"研究软件之间"时被AI所诱惑。
在该案中,法庭沮丧地发现律师自相矛盾,因此下令采取更严厉的制裁措施。
帕尼奇"同时承认使用AI生成简报,没有进行任何独立研究,甚至他'在这次上诉中几乎没有做任何个人工作',"法庭命令说,同时辩护收取更高的费用——据称因为这个案例"在花费时间方面非同寻常",他的办公室"在获取信息方面做了一些出色的工作"。
法庭认为这种AI滥用如此严重,以至于帕尼奇被命令退还他收到的"6925.62美元"的付款,外加1000美元的罚款。
"如果我有幸能够继续在上诉法院执业,我不会再这么做了,"帕尼奇在7月告诉法庭,然后在8月又遭到两轮制裁。
当发现AI生成的幻觉时,罚款通常支付给法庭、对方律师或两者,取决于谁的时间和资源被浪费在核对虚假案例上。
律师似乎更倾向于反对向对方律师支付制裁,希望尽可能保持制裁金额低。一位律师甚至辩称,"在LexisNexis或Westlaw中输入引证只需要7.6秒,而不是几个小时",同时似乎忽视了没有花这些宝贵时间检查自己引证的事实。
该案法官南希·米勒(Nancy Miller)明确表示,"此类陈述显示出对律师义务令人震惊的无知",指出"纠正错误和虚假引证的责任永远不会转移到对方律师或法庭,即使他们是第一个注意到错误的人"。
"减轻此类错误造成的损害的责任仍然在于签署人,"米勒说。"此类错误得到适当纠正得越早,无论是通过撤回还是修改和补充有问题的诉状,每个人浪费的时间就越少,产生的成本也越少"。
德克萨斯州联邦地方法官玛丽娜·加西亚·莫莫莱霍(Marina Garcia Marmolejo)表示同意,她指出,确定其他法官如何应对虚假AI引证会浪费更多时间。
"在这个国家最繁忙的法庭日程之一,几乎没有资源可以首先找出错误的AI引证,更不用说调查这一主题不断增长的判例法了,"她说。
至少佛罗里达州的一个法庭"震惊,震惊"地发现,一位律师在被发现滥用AI后拒绝支付对方律师所说的欠款。该案中的律师詹姆斯·马丁·保罗(James Martin Paul)要求支付所欠费用和成本的四分之一以下,辩称夏洛廷的数据库显示,他可能需要支付"迄今为止因使用AI生成判例法而支付的最大制裁金额"。
但采纳保罗的论点"只会使连环幻觉制造者受益",佛罗里达法庭发现。最终,保罗因法庭所称的"比数据库中其他被冒犯者严重得多的"行为被处以超过8.5万美元的制裁,谴责他"反复的、滥用性的、恶意的行为,不能被认可为合法的法律实践,必须被制止"。
法律行业的反思
伊利诺伊州美国破产法官迈克尔·B·斯莱德(Michael B. Slade)似乎已经厌倦了权衡借口,呼吁所有律师停止使用给法庭带来负担的AI捷径。
"坦率地说,到目前为止,任何不知道使用生成式AI平台进行法律研究是在玩火的律师都是生活在云中,"斯莱德写道。
随着AI技术在法律领域的应用日益广泛,律师行业面临着前所未有的伦理挑战和责任考验。虚假引证不仅浪费法庭资源,更损害了法律行业的诚信和公众信任。律师们需要认识到,AI工具可以作为辅助,但最终的责任在于人类专业人士的判断和监督。
法院已经开始制定更明确的指导方针,而法律教育机构也需要将AI伦理纳入课程体系。只有通过全行业的共同努力,才能确保技术真正服务于法律实践,而不是成为规避专业责任的工具。









