在法律界,人工智能技术正以前所未有的速度渗透到日常工作中。然而,随着AI工具的普及,一个令人担忧的现象正在蔓延:律师因使用AI生成虚假案例引用而面临严厉制裁。这种现象被一位法官称为"流行病",正在困扰着司法系统。
虚假引用:法律界的"流行病"
自2023年虚假AI引用开始被公开报道以来,律师们因使用AI工具生成不存在的案例而受到制裁的案例数量激增。根据法国律师兼AI研究员Damien Charlotin汇编的数据库,Ars Technica审查了23起因AI幻觉而被制裁的案件。这些案件揭示了律师们为逃避责任而提出的各种借口,以及法院对此类行为的日益严厉的态度。
律师的"创意"借口:从无知到黑客入侵
面对AI生成的虚假引用,律师们提出了各种令人难以置信的借口。这些借口不仅缺乏说服力,有时甚至荒谬可笑,反映出一些法律专业人士在面对新技术时的逃避心态。
"我不知道我在使用AI"
最受欢迎的借口是声称不知道AI被用来起草法律文件。在加利福尼亚的一个案例中,一位律师声称他被Google的AI概述所欺骗,将其误认为是典型的Google搜索结果。更常见的是,律师们将责任推给下属,有时甚至指责客户。
德克萨斯州的一位律师本月因推卸责任而被制裁,以至于法院最终不得不让他的客户作证,因为律师透露客户在起草异常文件中发挥了重要作用。
"你的客户是律师吗?" 法院问道。
"不,完全不是,阁下,她只是在帮助我处理案件理论," 律师回答道。
"聊天机器人不会产生幻觉"
另一个常见的借口是假装不知道聊天机器人容易产生事实幻觉。然而,最近的案例表明,这个借口正在演变成变体。上个月,一位受到制裁的俄克拉荷马州律师承认,他只是要求ChatGPT"让他的写作更有说服力",并没有期望它会添加新的引用。而今年9月,一位加利福尼亚州的律师陷入了类似的困境——被处以高达10,000美元的罚款,法官称这一罚款"保守"。这位律师要求ChatGPT"增强"他的简报,然后通过其他AI平台运行"增强"后的简报以检查错误,却从未阅读过这些"增强"后的简报。
"被黑客入侵了"
在绝望的情况下,一些律师开始将责任归咎于技术问题。纽约市民事法院的一个极端案例中,律师Innocent Chinweze最初承认使用Microsoft Copilot起草了错误的文件,然后奇怪地转向声称AI引用是由于计算机上发现的恶意软件所致。
Chinweze说他创建了一个包含正确引用的草稿,但随后被黑客入侵,允许"未经授权的远程访问",据称在他的文件中添加了错误。
法官对这个借口表示怀疑,描述其为"难以置信且没有根据的陈述",特别是由于没有先前草稿存在的证据。相反,Chinweze请求引入专家证明黑客确实发生,要求在法院权衡专家分析之前暂停制裁程序。
然而,法官Kimon C. Thermos不必权衡这个论点,因为在法院午餐休庭后,律师再次"戏剧性地"改变了立场。
"他不再希望就恶意软件或未经授权访问他的计算机问题推迟专家作证," Thermos在发布制裁命令的文书中写道。"他退缩"到"他最初的位置,即他使用Copilot辅助研究,没有意识到它可能生成虚假案例"。
"切换窗口太困难了"
在阿拉巴马州,一位名叫James A. Johnson的律师称自己犯了一个"尴尬的错误",主要是因为在笔记本电脑上切换窗口很困难,美国地方法院法官Terry F. Moorer在10月的制裁命令中写道。
Johnson解释说他不小心使用了一个他不知道可能产生幻觉的AI工具。这件事发生在他"在外州医院照顾正在从手术中恢复的家庭成员"时。他说,他匆忙起草文件,因为他收到通知,客户的会议突然"在法院日程上提前"。
"在时间压力和困难的情况下," Johnson解释说,他决定使用阿拉巴马州律师协会提供的Fastcase研究工具来研究文件。在他的笔记本电脑上工作,他选择使用"一个名为Ghostwriter Legal的Microsoft Word插件",因为"它自动出现在Word的侧边栏,而Fastcase需要通过阿拉巴马州律师协会网站打开单独的浏览器来访问"。
对Johnson来说,感觉"用触摸板在笔记本电脑上的程序之间来回切换很繁琐",这意味着他"不幸地陷入了一个打开且可用的新程序的诱惑中"。
Moorer对Johnson声称他理解像ChatGPT这样的工具不可靠,但没有对其他AI法律工具抱有同样期望的说法似乎并不信服——特别是因为"Ghostwriter Legal的信息清楚地表明它使用ChatGPT作为其默认AI程序",Moorer写道。
律师的客户同样感到反感,当场决定解雇Johnson,尽管这可能导致"审判的显著延迟"。Moorer注意到Johnson似乎因客户突然的决定而震惊,表现为"他震惊、沮丧和情绪化的表情"。
更换新律师可能会花费更多钱。Moorer进一步指出,Johnson似乎让AI代表政府做他的工作。但正如法官所指出的," appointed counsel的公共资金不是无底洞,而是有限资源"。
"很明显,基本的谴责和小额罚款不足以阻止这种不当行为,因为如果是这样,我们就不会在这里了," Moorer总结道。
裁定Johnson对AI的依赖"相当于恶意行为",Moorer imposed了5,000美元的罚款。法官还"考虑过可能的不合格资格,但这变得毫无意义",因为Johnson的客户已经解雇了他。
被要求发表评论时,Johnson告诉Ars,"法院对事实的认定明显错误,制裁正在上诉中"。
"登录问题"
佐治亚州的一位律师声称,有时虚假AI引用可能被提交是因为律师意外提交了草稿而不是最终版本。其他律师则声称,当他们在访问Westlaw或LexisNexis等法律工具时遇到问题时,他们会按需求助于AI。
例如,在爱荷华州,一位律师告诉上诉法院,在经历了"Westlaw订阅的登录问题"后,她后悔依赖"二级AI驱动的研究工具"。尽管法院"对技术问题表示同情,如登录问题",但这位律师还是受到了制裁,主要是因为她只在法院命令她解释错误后才承认使用AI。然而,在这种情况下,她可以选择支付最低的150美元罚款或参加"两小时特定于AI的法律伦理培训"。
"粗略的草稿"
路易斯安那州的一个案例表明,一位律师在被指责为不准确而责怪的AI工具上撒谎,这不太值得同情。在该案例中,法官在律师声称AI幻觉来自"使用Westlaw Precision,一个AI辅助的研究工具,而不是Westlaw的独立法律数据库"后,要求查看研究历史。
事实证明,该律师外包了研究工作,依赖一个"目前被暂停"的律师的AI引用,并且只是"假设"该律师的错误来自Westlaw的AI工具。暂停的律师实际使用了什么工具尚不清楚,他可能失去了对Westlaw登录的访问权限,但法官在签署文件的律师"同意Westlaw没有生成虚假引用"后,下令处以1,000美元的罚款。
"连续幻觉者"与法院的严厉回应
伊利诺伊州的律师William T. Panichi被发现至少被制裁了三次,Ars的审查发现。对他7月份最初判处的处罚,他承认在"研究软件之间"时被AI所诱惑。
在该案例中,法院发现律师自相矛盾,因此下令实施更严厉的制裁。
法院命令称,Panichi"同时承认使用AI生成简报,没有进行任何独立研究,甚至说'我在这次上诉中几乎没有做任何个人工作'",同时辩护收取更高的费用——据称是因为这个案例"在花费时间方面不寻常",他的办公室"在获取信息方面做了一些出色的工作"。
法院认为这种AI滥用如此严重,以至于Panichi被命令退还他收到的"6,925.62美元",外加1,000美元的罚款。
"如果我有幸能够在上诉法院继续执业,我不会再这样做了," Panichi在7月份告诉法院,就在他在8月份又受到两轮制裁之前。
当发现AI生成的幻觉时,罚款通常支付给法院、对方律师或两者,具体取决于谁的时间资源被浪费用于核对虚假案例。
律师们似乎更倾向于反对向对方律师支付罚款,希望尽可能保持罚款最低。一位律师甚至辩称,"在LexisNexis或Westlaw中输入引用只需要7.6秒,而不是几个小时",同时似乎忽略了没有花这些宝贵时间检查自己引用的事实。
该案法官Nancy Miller明确表示,"此类陈述显示出对律师义务的惊人缺乏认识",指出**"纠正错误和虚假引用的责任永远不会转移到对方律师或法院,即使他们是第一个注意到错误的人"**。
"减轻此类错误造成的损害的责任仍然在于签署人," Miller说。"一旦这些错误得到适当纠正,无论是通过撤回还是修改和补充有问题的诉状,越早越好,涉及各方浪费的时间就越少,产生的成本也越少"。
德克萨斯州美国地方法官Marina Garcia Marmolejo表示同意,指出确定其他法官如何应对虚假AI引用会浪费更多时间。
"在这个全国最繁忙的法院日程之一,几乎没有资源可以首先筛选出错误的AI引用,更不用说调查这个主题不断增长的判例法了," 她说。
至少佛罗里达州的一家法院对一位律师拒绝支付对方律师声称应得的款项表示"震惊,震惊"。该案中的律师James Martin Paul要求支付不到所欠费用和成本的四分之一,辩称Charlotin的数据库显示他可能 otherwise 欠下"迄今为止使用AI生成判例法所支付的最大制裁"。
但向Paul的论点让步**"只会使连续幻觉者受益",佛罗里达法院发现。最终,Paul因法院所说的"比数据库中其他违规者严重得多的"** 行为而被制裁超过85,000美元,谴责他**"重复的、虐待性的、恶意的行为,不能被认可为合法的法律实践,必须受到制止"**。
法院的态度:从容忍到零容忍
随着AI幻觉案件的增加,法院的态度正在从相对宽容转向严厉制裁。伊利诺伊州美国破产法官Michael B. Slade似乎已经厌倦了权衡借口,呼吁所有律师停止使用给法院带来负担的AI捷径。
"坦率地说,任何不知道使用生成式AI平台进行法律研究是在玩火的律师都活在自己的世界里," Slade写道。
法院的严厉回应反映了几个关键因素:首先,虚假引用不仅浪费法院时间,还可能导致不公正的法律结果;其次,律师作为法律专业人士,有责任确保提交给法庭的文件准确无误;最后,随着AI技术的普及,法院对律师使用这些工具的期望也在提高。
法律AI的未来:挑战与机遇
尽管当前面临挑战,AI在法律领域的应用前景仍然广阔。关键在于如何平衡技术创新与职业道德。以下是几个关键发展方向:
AI法律工具的改进
法律AI工具开发商需要更好地解决"幻觉"问题。这可能包括:
- 更严格的案例验证机制
- 更透明的AI决策过程
- 更好的错误检测和预防系统
律师培训与教育
法律院校和律师协会需要加强AI伦理培训,确保律师了解:
- AI工具的局限性
- 适当使用AI的方法
- 验证AI生成内容的重要性
监管框架的建立
随着AI在法律领域的应用增加,需要建立明确的监管框架,包括:
- AI使用的伦理标准
- 违规行为的处罚机制
- 持续监督和评估系统
结论:拥抱技术,坚守伦理
AI技术在法律领域的应用既是挑战也是机遇。律师们需要认识到,AI工具可以成为强大的助手,但不能替代专业判断和责任。面对虚假引用问题,最明智的做法是坦诚面对错误,承担责任,并从中学习。
正如一位法官所言,"任何不知道使用生成式AI平台进行法律研究是在玩火的律师都活在自己的世界里"。在技术飞速发展的今天,法律专业人士必须找到创新与伦理之间的平衡点,才能真正发挥AI技术的潜力,同时维护法律行业的诚信和尊严。

AI技术在法律领域的应用正在改变传统工作方式,但也带来了新的伦理挑战。











