在当今法律领域,人工智能技术正以惊人的速度改变着传统的工作方式。然而,随之而来的是一系列令人震惊的案例——律师们在法庭文件中大量使用AI生成的内容,却对其中出现的虚假引证视而不见,甚至在被发现后编造各种荒唐借口试图逃避责任。
虚假引证泛滥成灾
据法国律师兼AI研究员Damien Charlotin建立的数据库显示,自2023年虚假AI引证问题被公开以来,已有多起案例对律师进行了制裁。Ars Technica回顾了其中23起案例发现,法官们普遍将这种现象描述为"流行病",这些虚假引证严重困扰着司法系统的正常运行。
在多数案例中,法官指出,律师最简单的应对方式是在发现AI使用后立即承认错误,保持谦逊态度,向相关法律协会自报错误,并自愿参加AI与法律相关的课程。然而,并非所有律师都选择这条阻力最小的道路,许多人反而提出了连法官都认为不可信的借口。
"我不知道这是AI生成的":最常见的借口
自2023年以来,最流行的借口是律师声称不知道AI被用于起草法律文件。
在某些情况下,这意味着辩称律师没有意识到自己正在使用AI。例如,一位加州律师声称自己被Google的AI摘要所"欺骗",误以为这些是普通的Google搜索结果。更常见的是,使用这种借口的律师往往会指责下属,有时也会归咎于客户。
本月,一位德州律师在多次推卸责任后遭到制裁,法院不得不让他的客户出庭作证,因为律师最终承认客户在起草异常文件中扮演了重要角色。
"您的客户是律师吗?"法院问道。
"不,完全不是,阁下,她只是在帮我处理案件理论方面的问题,"这位律师回答道。
"我不知道聊天机器人会产生幻觉":进阶版借口
另一个常见的借口来自那些假装不知道聊天机器人容易产生事实幻觉的律师。
近期的案例表明,这个借口可能正在演变成变种。上月,一位受到制裁的俄克拉荷马州律师承认,他只是要求ChatGPT"让他的写作更有说服力",并没有期望它会添加新的引证。而在9月,一位加州律师陷入了类似的困境——被处以高达1万美元的罚款,法官称这一罚款"相当保守"。这位律师要求ChatGPT"增强"他的简要陈述,然后通过其他AI平台运行这些"增强"后的简要陈述以检查错误,却从未阅读过这些"增强"后的内容。
如今,这些老掉牙的借口在许多法院已经不再有分量,尤其是在已经制定了应对AI幻觉指导方针的法院。但正如法院所恳求的那样,一些律师似乎已经变得绝望,而不是迅速承认自己的失误。
"我被黑了":极端借口
在纽约市民事法院,一位名叫Innocent Chinweze的律师最初承认使用Microsoft Copilot起草了错误的文件,然后奇怪地转向声称AI引证是由于他电脑上发现的恶意软件造成的。
Chinweze说他最初创建了带有正确引证的草稿,但随后被黑客入侵,允许"未经授权的远程访问",据称在他的文件中添加了错误。
法官对此表示怀疑,将这一描述为"难以置信且没有根据的陈述",特别是因为没有证据表明先前草稿的存在。相反,Chinweze请求引入专家来证明黑客入侵的发生,要求在法院权衡专家分析之前暂停制裁程序。
然而,法官Kimon C. Thermos不必权衡这一论点,因为在法院午休后,这位律师再次"戏剧性地"改变了自己的立场。
"他不再希望为恶意软件或未经授权访问他的电脑而推迟专家作证,"Thermos在发布制裁命令的命令中写道。他"退回到"最初的立场,即他使用Copilot辅助研究,没有意识到它可能生成虚假案例。
尽管如此,让Thermos比律师奇怪的恶意软件论更恼火的是,Chinweze在制裁听证当天提交的一份文件。法官指出,该文件包含多个以以下文本开头的摘要:
案例元数据和案例摘要是在AI的帮助下编写的,AI可能会产生不准确的内容。在依赖它进行法律研究目的之前,您应该阅读完整案例。
Thermos严厉批评Chinweze继续鲁莽使用AI。他抨击该文件是"一份88页长的、不连贯的文件,没有结构,包含引用案例的大部分全文",并且"显示出引用案例的讨论/分析部分是由人工智能编写的明显迹象"。
最终,Thermos命令Chinweze支付1000美元罚款,这是Ars回顾的案例中律师收到的最典型罚款。然后,法官采取了一项额外的非金钱制裁措施,将这位律师转交给投诉委员会,"鉴于他的不当行为是实质性的,并且严重影响了他的诚实、可信度和从事法律执业的资格"。
"切换笔记本电脑窗口很麻烦":技术借口
在阿拉巴马州,一位名叫James A. Johnson的律师称自己犯了一个"尴尬的错误",主要是因为在笔记本电脑上切换窗口很困难,美国地区法官Terry F. Moorer在10月的制裁命令中写道。
Johnson解释说他不小心使用了一个他不知道可能产生幻觉的AI工具。这发生在他"在外州医院照顾正在从手术中恢复的家庭成员"时。他说,他匆忙起草文件,因为他收到通知,客户的会议突然"在法院日程上提前"。
"在时间压力和困难的情况下,"Johnson解释说,他决定不使用阿拉巴马州律师协会提供的Fastcase研究工具来研究文件。在他的笔记本电脑上工作,他选择使用"一个名为Ghostwriter Legal的Microsoft Word插件",因为"它自动出现在Word的侧边栏中,而Fastcase需要通过阿拉巴马州律师协会网站打开单独的浏览器来访问"。
对Johnson来说,"用触摸垫在笔记本电脑上的程序之间来回切换感觉很繁琐",这意味着他"不幸地被一个打开且可用的新程序所吸引"。
Moorer似乎对Johnson声称他理解像ChatGPT这样的工具不可靠,但没有对其他AI法律工具抱有同样期望的说法印象深刻——特别是因为"Ghostwriter Legal的信息明确表明它使用ChatGPT作为其默认AI程序",Moorer写道。
这位律师的客户同样感到不快,决定当场解雇Johnson,尽管这可能导致"审判的显著延迟"。Moorer注意到Johnson似乎对他的客户突然的决定感到震惊,表现为"他震惊、沮丧和情绪化的表情"。
而且更换新律师可能会花掉更多的钱。Moorer进一步指出,Johnson似乎在代表政府工作时让AI代劳。但正如法官所指出的," appointed counsel的公共资金不是一个无底洞,而是有限资源"。
"很明显,基本的谴责和小额罚款不足以阻止这种不当行为,因为如果是的话,我们不会在这里,"Moorer总结道。
裁定Johnson对AI的依赖"相当于恶意",Moorer imposed了5000美元的罚款。法官还"考虑过潜在的取消资格,但这已经变得无关紧要",因为Johnson的客户已经解雇了他。
被问及评论时,Johnson告诉Ars,"法院对事实的认定明显错误,制裁正在上诉中"。
"登录问题":技术故障借口
正如一位佐治亚州律师所说,有时虚假AI引证可能被提交是因为律师意外提交了草稿而不是最终版本。
其他律师声称,当他们难以访问Westlaw或LexisNexis等法律工具时,他们会按需使用AI。
例如,在爱荷华州,一位律师告诉上诉法院,她在经历"Westlaw订阅的登录问题"后,后悔依赖"次要的AI驱动研究工具"。尽管法院"对技术问题表示同情,如登录问题",但这位律师还是受到了制裁,主要是因为她只在法院命令她解释错误后才承认使用AI。然而,在她的案例中,她可以选择支付最低150美元的罚款或参加"两小时特别针对AI的法律伦理培训"。
更不受同情的是一位律师,她被发现对她归咎于AI工具的不准确性撒谎,路易斯安那州的案例表明。在该案中,一位法官要求查看研究历史,因为律师声称AI幻觉来自"使用Westlaw Precision,一个AI辅助研究工具,而不是Westlaw的独立法律数据库"。
事实证明,这位律师外包了研究工作,依赖一位"已被暂停"执业的律师的AI引证,只是"假设"这位律师的错误来自Westlaw的AI工具。目前尚不清楚被暂停执业的律师实际使用了什么工具,他可能失去了Westlaw的登录权限,但签署文件的律师"同意Westlaw没有生成虚假引证"后,法官下令处以1000美元罚款。
"连续幻觉者":惯犯警告
Ars的审查发现,伊利诺伊州的William T. Panichi律师至少被制裁过三次。
对他7月份最初判处的处罚,他承认在"研究软件之间"时被AI所吸引。
在这种情况下,法院沮丧地发现律师自相矛盾,因此下令实施更严厉的制裁。
Panichi "同时承认使用AI生成简要陈述,没有进行任何独立研究,甚至说'我在这次上诉中几乎没有做任何个人工作',"法院命令说,同时还辩护收取更高的费用——据称因为这个案例"在花费时间方面非同寻常",他的办公室"在获取信息方面做了一些出色的工作"。
法院认为这种AI滥用如此严重,以至于Panichi被命令退还"他收到的6925.62美元",外加1000美元罚款。
"如果我有幸能够在上诉法院继续执业,我不会再这样做了,"Panichi在7月告诉法院,然后在8月又遭到两轮制裁。
当发现AI生成的幻觉时,罚款通常支付给法院、其他当事人的律师或两者,具体取决于谁的时间和资源被浪费在核对虚假案例上。
律师似乎更倾向于反对向其他当事人的律师支付罚款,希望尽可能保持罚款最低。一位律师甚至辩称,"在LexisNexis或Westlaw中输入引证只需要7.6秒,而不是几个小时",同时似乎忽略了没有花这些宝贵的秒数来检查自己的引证。
该案法官Nancy Miller明确表示,"此类陈述显示出对律师义务令人震惊的无知",指出"纠正错误和虚假引证的责任永远不会转移到对方律师或法院,即使他们是第一个注意到错误的人"。
"减轻此类错误造成的损害的责任仍然在于签署人,"Miller说。"这些错误被适当纠正得越早,无论是通过撤回还是修改和补充有问题的诉状,涉及每个人的时间浪费就越少,产生的成本也越少。"
德州美国地区法官Marina Garcia Marmolejo也表示同意,解释说确定其他法官如何应对虚假AI生成引证会浪费更多时间。
"在这个国家最繁忙的法庭日程之一,几乎没有资源可以首先找出错误的AI引证,更不用说调查这个主题不断增长的判例法了,"她说。
至少有一位佛罗里达法院对律师在滥用AI后拒绝支付对方律师声称应得的费用感到"震惊,震惊"。该案中的律师James Martin Paul要求支付所欠费用和成本的四分之一以下,辩称Charlotin的数据库显示,他可能 otherwise 欠下的罚款将是"迄今为止因使用AI生成判例法而支付的最大制裁"。
但向Paul的论点让步"只会使连续幻觉者受益",佛罗里达法院发现。最终,Paul被处以超过85,000美元的罚款,法院称其行为"比数据库中的其他违规者严重得多",谴责他"重复的、虐待性的、恶意的行为,不能被视为合法的法律实践,必须被制止"。
Paul没有立即回应Ars的评论请求。
伊利诺伊州美国破产法官Michael B. Slade似乎已经厌倦了权衡借口,呼吁所有律师停止使用给法院带来负担的AI捷径。
"坦率地说,现在,任何不知道使用生成式AI平台进行法律研究是在玩火的律师都是活在自己的云中,"Slade写道。
法律行业的AI困境
这些案例揭示了一个更深层次的问题:法律行业在拥抱AI技术的同时,如何保持专业诚信和司法公正。AI工具确实可以提高效率,但它们也带来了新的风险和责任。
正如多位法官所指出的,律师有责任确保其提交的文件准确无误。使用AI辅助研究时,律师必须进行适当的监督和验证,不能简单地将AI生成的内容原封不动地提交给法院。
司法系统的应对之道
面对AI幻觉带来的挑战,法院系统正在采取多种措施。除了对违规律师实施制裁外,一些法院已经制定了指导方针,明确律师在使用AI时应遵循的规则。
这些指导方针通常要求律师:
- 了解所用AI工具的局限性
- 对AI生成的内容进行独立验证
- 在适当的情况下披露AI的使用
- 保持对最终文件的责任
未来展望
随着AI技术在法律领域的应用越来越广泛,相关规范和标准也将不断完善。法律从业者需要认识到,AI是工具,而非替代专业判断的捷径。只有负责任地使用AI,才能真正发挥其优势,同时维护法律行业的专业标准和司法系统的公信力。
这场"AI幻觉"危机或许将成为法律行业转型的一个契机,促使从业者重新思考技术与专业伦理的关系,在拥抱创新的同时坚守职业操守的底线。









