在当今快速发展的科技环境中,人工智能(AI)正在改变各行各业的运作方式,法律行业也不例外。然而,随着AI工具在法律研究中的普及,一个令人担忧的现象正在法庭上蔓延:律师们因使用AI生成虚假案例引用而面临越来越多的法律制裁。这些虚假引用不仅浪费了法院和当事人的宝贵时间,更严重损害了司法系统的公信力。
AI幻觉:法律行业的新挑战
自2023年以来,虚假AI生成的案例引用开始引起公众关注,并迅速演变成法官所称的"流行病"。法国律师兼AI研究员Damien Charlotin整理的数据库显示,已有至少23起律师因AI幻觉而受到制裁的案件。这些案件中,律师们提交的法律文件包含了AI工具编造的案例,这些案例看似真实但实际上并不存在。

面对这一现象,法院已经明确表示,律师有责任确保其提交的法律文件准确无误。然而,许多律师在被发现使用AI生成虚假案例后,不是坦诚承认错误,而是想方设法寻找各种借口,试图逃避或减轻最严厉的制裁。
荒诞借口大全:律师们的"创新"辩护理由
"我不知道我使用了AI"
最受欢迎的借口莫过于声称自己不知道使用了AI来起草法律文件。这种借口有多种变体:有的律师声称他们没有意识到自己正在使用AI,如一位加州律师声称他误将Google的AI摘要当作普通的搜索结果;有的律师则将责任推给下属,甚至客户。
本月,一位德州律师因推卸责任而被制裁,法院不得不传唤其客户作证,因为律师最终承认客户在起草异常文件中发挥了重要作用。
"您的客户是律师吗?"法院问道。
"不,绝对不是,阁下,她只是在帮我梳理案件理论,"律师回答道。
"我不知道聊天机器人会编造事实"
另一个常见的借口是假装不知道聊天机器人容易产生幻觉。最近的一些案件表明,这个借口可能正在演变成各种变体。上个月,一位受到制裁的俄克拉荷马律师承认,他只要求ChatGPT"让他的写作更有说服力",并没有期望它会添加新的引用。而9月份,一位加州律师陷入了类似的困境——被处以高达1万美元的罚款,法官称这一罚款"保守"。这位律师要求ChatGPT"增强"他的简报,然后通过其他AI平台运行"增强"后的简报以检查错误,却从未阅读过这些"增强"后的简报。
"我被黑客攻击了"
当怀疑时,指责黑客?
在纽约市民事法院的一个极端案例中,律师Innocent Chinweze最初承认使用Microsoft Copilot起草了一份错误的文件,然后奇怪地转向声称AI引用是由于在他电脑上发现的恶意软件造成的。
Chinweze说他创建了一份包含正确引用的草稿,但随后被黑客攻击,允许"未经授权的远程访问",据称在他的文件中添加了错误。
法官对此表示怀疑,称这个借口是"难以置信且无根据的陈述",特别是由于没有先前草稿存在的证据。相反,Chinweze请求请专家作证证明黑客攻击确实发生,要求在法院权衡专家分析之前结束制裁程序。
然而,法官Kimon C. Thermos不必权衡这一论点,因为在法院午餐休庭后,律师再次"戏剧性地"改变了自己的立场。
"他不再希望为恶意软件或未经授权访问他的电脑而推迟专家作证,"Thermos在发布制裁命令的命令中写道。他"退回"到"最初的位置,即他使用Copilot辅助研究,没有意识到它可能生成虚假案例"。
"切换笔记本电脑窗口太难了"
在阿拉巴马州,一位名叫James A. Johnson的律师称自己犯了一个"令人尴尬的错误",主要是因为切换笔记本电脑窗口很困难,美国地方法官Terry F. Moorer在10月的制裁命令中指出。
Johnson解释说他意外使用了一个他不知道可能产生幻觉的AI工具。他说,当他"在外州医院照顾刚做完手术的家人"时发生了这种情况。他说,他匆忙起草文件,因为他收到通知,客户的会议突然"在法院日程上提前了"。
"在时间压力和个人困难的情况下,"Johnson解释说,他决定不使用阿拉巴马州律师协会提供的Fastcase研究工具来研究文件。在他的笔记本电脑上工作,他选择使用"一个名为Ghostwriter Legal的Microsoft Word插件",因为"它自动出现在Word的侧边栏,而Fastcase需要通过阿拉巴马州律师协会网站打开单独的浏览器来访问"。
对Johnson来说,感觉"用触摸板在笔记本电脑上的程序之间来回切换很繁琐",这意味着他"不幸地成为了开放可用的新程序的诱惑的受害者"。
Moorer似乎对Johnson声称他理解像ChatGPT这样的工具不可靠,但对其他AI法律工具没有抱有同样期望的说法印象深刻——特别是因为"Ghostwriter Legal的信息明确表示它使用ChatGPT作为其默认AI程序",Moorer写道。
"我只是提交了草稿而非最终版本"
正如一位佐治亚州律师所说,有时虚假AI引用可能被提交,是因为律师意外提交了草稿而非最终版本。
其他律师声称,当他们在访问Westlaw或LexisNexis等法律工具遇到问题时,他们会按需求助于AI。
例如,在爱荷华州,一位律师告诉上诉法院,在经历"Westlaw订阅的登录问题"后,她后悔依赖"次要的AI驱动的研究工具"。尽管法院"对技术问题表示同情,如登录问题",但这位律师还是受到了制裁,主要是因为只有在法院命令她解释错误后,她才承认使用了AI。然而,在她的案例中,她可以选择支付150美元的最低罚款或参加"两小时针对AI的法律伦理培训"。
"我的登录有问题"
一位路易斯安那州的案件表明,有位律师被发现对导致不准确性的AI工具撒谎。在该案中,一位法官要求查看研究历史,因为律师声称AI幻觉来自"使用Westlaw Precision,一个AI辅助研究工具,而不是Westlaw的独立法律数据库"。
事实证明,该律师外包了研究工作,依赖一个"目前被暂停"的律师的AI引用,并且只是"假设"该律师的错误来自Westlaw的AI工具。暂停执业的律师实际使用了什么工具尚不清楚,他可能失去了Westlaw的登录权限,但法官在签署文件的律师"同意Westlaw没有生成编造的引用"后,下令处以1000美元的罚款。
"屡犯幻觉者"与法院的耐心耗尽
伊利诺伊州的律师William T. Panichi被发现至少被制裁了三次。在对7月下达的初步处罚作出回应时,他承认在自己"在研究软件之间转换"时被AI所诱惑。
法院沮丧地发现该律师自相矛盾,并因此下令实施更严厉的制裁。
Panichi"同时承认使用AI生成简报,没有进行任何独立研究,甚至承认他在这次上诉中'几乎没有做任何个人工作'",法院命令称,同时辩护收取更高的费用——据说是因为这个案例"在花费时间方面非同寻常",他的办公室"在获取信息方面做了一些出色的工作"。
法院认为这种AI滥用如此严重,除了1000美元的罚款外,还命令Panichi退还他收到的"6925.62美元的付款"。
"如果我有幸能够继续在上诉法院执业,我不会再这样做了,"Panichi在7月告诉法院,就在8月再次受到两轮制裁之前。
Panichi没有立即回复Ars的评论请求。
法院对律师的期望与行业影响
当发现AI生成的幻觉时,罚款通常支付给法院、其他当事人的律师或两者,具体取决于谁的时间资源被浪费在核对虚假案例上。
律师似乎更倾向于反对向其他当事人的律师支付罚款,希望尽可能保持罚款最低。一位律师甚至辩称"在LexisNexis或Westlaw中输入引用只需要7.6秒,而不是几个小时",同时似乎忽视了没有花这些宝贵的秒数检查自己的引用这一事实。
该案法官Nancy Miller明确表示"此类陈述显示出对律师义务令人震惊的缺乏认识",并指出"纠正错误和虚假引用的责任永远不会转移到对方律师或法院,即使他们是第一个注意到错误的人"。
"减轻此类错误造成的损害的责任仍然在于签署人,"Miller说。"此类错误得到适当纠正得越早——无论是通过撤回还是修改和补充有问题的诉状——涉及每个人的浪费的时间就越少,产生的成本也就越少。"
德克萨斯州联邦地方法官Marina Garcia Marmolejo表示同意,指出确定其他法官如何应对虚假AI生成的引用会浪费更多时间。
"在这个国家最繁忙的法院日程之一,几乎没有资源可以首先筛选出错误的AI引用,更不用说调查这个主题不断增长判例法了,"她说。
至少佛罗里达州的一家法院"震惊地"发现,一位律师在滥用AI后拒绝支付对方律师所说的欠款。该案中的律师James Martin Paul要求支付欠费和费用不到四分之一,辩称Charlotin的数据库显示他可能 otherwise 欠下"迄今为止使用AI生成判例法支付的最大罚款"。
但向Paul的论点让步"只会使屡犯幻觉者受益",佛罗里达州法院发现。最终,Paul因法院所称的"比数据库中其他被指控者严重得多的"行为而被制裁超过85,000美元,谴责他的"反复的、虐待性的、恶意的行为,不能被认可为合法的法律实践,必须加以制止"。
专业责任与AI时代的法律实践
伊利诺伊州美国破产法官Michael B. Slade似乎已经厌倦权衡借口,呼吁所有律师停止使用给法院带来负担的AI捷径。
"坦率地说,到这个地步,任何不知道使用生成式AI平台进行法律研究是在玩火的律师都是生活在云中,"Slade写道。
这些案例揭示了法律行业在AI时代面临的深刻挑战。随着AI工具变得越来越先进和普及,律师们面临着如何在不牺牲专业质量的情况下利用这些技术的难题。

法院已经明确表示,使用AI不应成为疏忽专业责任的借口。相反,律师有责任确保他们提交的每一份文件都准确无误,无论这些文件是人工起草还是借助AI工具生成的。
未来展望:平衡创新与责任
面对AI幻觉的挑战,法律行业需要找到平衡创新与责任的途径。这包括:
加强法律教育:法学院和继续教育项目需要将AI工具的适当使用纳入课程,教导律师如何有效利用这些技术同时保持专业标准。
制定明确的指导方针:法院和专业协会需要制定明确的AI使用指导方针,明确律师的责任和违规的后果。
开发验证工具:法律科技公司可以开发工具,帮助律师验证AI生成的内容,确保其准确性。
培养批判性思维:律师需要培养对AI生成内容的批判性思维能力,不盲目接受AI提供的任何信息。
职业道德更新:法律职业道德规范需要更新,明确在AI时代律师的责任和义务。
结论
律师使用AI生成虚假案例引用的现象反映了法律行业在技术变革面前的适应挑战。虽然AI工具可以提高法律研究的效率,但它们不能取代律师的专业判断和责任。
法院已经明确表示,无论技术如何发展,律师都有责任确保其提交的法律文件准确无误。那些试图通过荒谬借口逃避责任的律师不仅面临严厉的制裁,还损害了整个法律行业的声誉。
随着AI技术的不断发展,法律专业人士需要找到平衡创新与责任的方法,确保技术服务于正义,而不是损害它。只有这样,法律行业才能在AI时代保持其核心价值观和专业标准。








