AI法律危机:律师如何用荒谬借口逃避虚假引用责任

1

在法律界,一种令人不安的现象正在蔓延:律师们因使用AI工具生成虚假案例引用而面临制裁,却提出各种令人难以信服的借口来逃避责任。随着AI技术在法律领域的广泛应用,这一"流行病"正给法院系统带来沉重负担,同时也引发了关于法律行业如何适应新技术的重要讨论。

虚假引用的"流行病"

一位法官将律师使用AI生成虚假案例引用的现象称为"流行病",这一描述并非夸大其词。根据法国律师兼AI研究员Damien Charlotin汇编的数据库,Ars Technica审查了23起律师因AI幻觉而受到制裁的案例。这些案例揭示了律师们为逃避责任而提出的各种借口,以及法院对此类违规行为的应对措施。

AI法律危机

自2023年虚假AI引用开始被公开报道以来,最常见的借口是律师声称不知道AI被用来起草法律文件。有时这意味着辩称没有意识到自己在使用AI,正如一位加利福尼亚律师的情况,他被谷歌的AI概览所困扰,他声称将其视为典型的谷歌搜索结果。更常见的是,使用这种借口的律师往往会归咎于下属,但有时也会归咎于客户。

"我不知道AI会这样"

在德克萨斯州,一位律师在本月受到制裁,因为他不断推卸责任,最终法院不得不让他的客户作证,因为客户在起草异常文件中发挥了重要作用。

"你的客户是律师吗?"法院问道。

"不,完全不是,阁下,她只是在帮我处理案件的理论部分,"这位律师回答道。

这种"我不知道AI会这样"的借口在早期案例中较为常见,但随着法院制定指导方针来应对AI幻觉,这一借口的说服力正在减弱。事实上,许多法院已经明确表示,律师有责任了解他们使用的工具,包括AI工具的局限性。

"我只是想让它更有说服力"

另一个常见的辩解是律师假装不知道聊天机器人容易产生幻觉事实。

近期的案例表明,这一借口可能正在演变成变体。上个月,一位受制裁的俄克拉荷马州律师承认,他只是要求ChatGPT"让他的写作更有说服力",并没有期望它会添加新的引用。而在9月,一位加利福尼亚律师陷入了类似的困境——被处以高达1万美元的罚款,法官称这一罚款"保守"。该律师要求ChatGPT"增强"他的简报,然后通过其他AI平台运行"增强"的简报以检查错误,却从未阅读过这些"增强"的简报。

当黑客成为替罪羊

当律师感到绝望时,他们会求助于各种技术问题作为虚假引用的原因。

AI法律问题

在纽约市民事法院的一个极端案例中,一位名叫Innocent Chinweze的律师最初承认使用Microsoft Copilot起草了错误的文件,然后奇怪地转向声称AI引用是由于计算机上发现的恶意软件所致。

Chinweze说他创建了一个带有正确引用的草稿,但随后被黑客入侵,允许"行为不端者"进行"未经授权的远程访问",据说在他的文件中添加了错误。

法官对此表示怀疑,将这一描述为"令人难以置信且毫无根据的陈述",特别是由于没有先前草稿存在的证据。相反,Chinweze要求请专家作证证明黑客攻击确实发生,请求在法院权衡专家分析之前结束制裁程序。

然而,法官Kimon C. Thermos不必权衡这一论点,因为在法院午餐休息后,律师再次"戏剧性地"改变了自己的立场。

"他不再希望为关于恶意软件或未经授权访问其计算机的专家作证而休会,"Thermos在发布制裁的命令中写道。"他退回到"最初的位置,即他使用Copilot辅助研究,并没有意识到它可以生成虚假案例。"

"切换窗口太困难"

在阿拉巴马州,一位名叫James A. Johnson的律师犯了一个"令人尴尬的错误",美国地方法官Terry F. Moorer在10月的一份制裁命令中指出,主要是因为在笔记本电脑上切换窗口很困难。

Johnson解释说他意外使用了一个他没有意识到会产生幻觉的AI工具。他说,这发生在他"在外州医院照顾从手术中恢复的家庭成员"时。他说,他匆忙起草文件,因为他收到通知,客户的会议突然"在法院日程上提前了"。

"在时间压力和困难的个人情况下,"Johnson解释说,他决定使用阿拉巴马州律师协会提供的Fastcase研究工具来起草文件。在他的笔记本电脑上工作,他选择使用"一个名为Ghostwriter Legal的Microsoft Word插件",因为"它自动出现在Word的侧边栏,而Fastcase需要通过阿拉巴马州律师协会网站打开单独的浏览器才能访问。"

对Johnson来说,"用触摸板在[他的]笔记本电脑上的程序之间来回切换感到繁琐",这意味着他"不幸地成为了一个开放且可用的新程序的诱惑的受害者"。

Moorer似乎对Johnson声称他理解像ChatGPT这样的工具不可靠,但不期望其他AI法律工具也是如此——特别是"Ghostwriter Legal的信息明确表明它使用ChatGPT作为其默认AI程序"——这一说法印象深刻。

这位律师的客户同样感到反感,决定当场解雇Johnson,尽管这可能会"显著延迟审判"。Moorer指出,Johnson似乎因客户突然的决定而动摇,证据是"他震惊、沮丧和情绪化的表情"。

"我只是丢了登录信息"

正如一位佐治亚州律师所说,有时虚假AI引用可能被提交,是因为律师意外提交了草稿而不是最终版本。

其他律师声称,当他们难以访问Westlaw或LexisNexis等法律工具时,他们会按需求助于AI。

例如,在爱荷华州,一位律师告诉上诉法院,在经历了"与Westlaw订阅的登录问题"后,她后悔依赖"次要的AI驱动的研究工具"。尽管法院"对技术问题表示同情,如登录问题",但这位律师受到了制裁,主要是因为她只在法院命令她解释错误后才承认使用AI。然而,在这种情况下,她可以选择支付150美元的最低罚款或参加"两小时针对AI的法律伦理培训"。

"重复幻觉者"

法律AI伦理

另一位律师,伊利诺伊州的William T. Panichi,Ars的审查发现,他至少受到了三次制裁。

针对7月下达的初步处罚,他承认在"研究软件之间"时被AI所诱惑。

在这种情况下,法院沮丧地发现律师自相矛盾,并因此下令实施更严厉的制裁。

Panichi"同时承认使用AI生成简报,没有做任何自己的独立研究,甚至说他'在这项上诉中几乎没有做任何个人工作',"法院命令说,同时辩护收取更高的费用——据说是因为这个案例"在花费时间方面不同寻常",他的办公室"在获取信息方面做了一些出色的工作"。

法院认为这种AI滥用如此严重,以至于Panichi被命令退还他收到的"6,925.62美元的付款",外加1,000美元的罚款。

法院的回应

当发现AI生成的幻觉时,罚款通常支付给法院、对方律师或两者,具体取决于谁的时间和资源被浪费在核对虚假案例上。

律师似乎更倾向于反对向对方律师支付罚款,希望尽可能降低罚款金额。一位律师甚至辩称,"在LexisNexis或Westlaw中输入引用只需要7.6秒,而不是几个小时",同时似乎忽略了没有花这些宝贵的时间检查自己引用的事实。

该案法官Nancy Miller明确表示,"此类陈述显示出对律师义务令人震惊的无知",指出"纠正错误和虚假引用的责任永远不会转移到对方律师或法院,即使他们是第一个注意到错误的人。"

"减轻此类错误所造成损害的责任仍然在于签署人,"Miller说。"越早正确纠正这些错误,无论是通过撤回还是修改和补充有问题的诉状,涉及每个人的时间浪费就越少,产生的成本也就越少。"

德克萨斯州美国地方法官Marina Garcia Marmolejo表示同意,解释说确定其他法官如何应对虚假AI生成的引用会浪费更多时间。

"在这个国家最繁忙的法院日程之一,几乎没有资源可以首先找出错误的AI引用,更不用说调查这一主题不断增长的判例法了,"她说。

"任何不知道AI是玩火的律师都活在云里"

至少有一个佛罗里达州法院"震惊,震惊"地发现,一位律师在滥用AI后拒绝支付对方律师所说的欠款。该案中的律师James Martin Paul要求支付所欠费用和成本的四分之一以下,辩称Charlotin的数据库显示,他可能 otherwise 需要支付"迄今为止使用AI生成判例法支付的最大罚款"。

但佛罗里达州法院发现,屈服于Paul的论点"只会使重复的幻觉者受益"。最终,Paul因法院所称的"比数据库中其他违规者严重得多的"行为被处以超过85,000美元的罚款,谴责他的"反复的、滥用的、恶意的不能被视为合法法律实践并必须被阻止的行为"。

伊利诺伊州美国破产法官Michael B. Slade似乎已经厌倦了权衡借口,呼吁所有律师停止使用给法院带来负担的AI捷径。

"坦率地说,到目前为止,任何不知道使用生成式AI平台进行法律研究是在玩火的律师都活在云里,"Slade写道。

法律行业的AI适应

随着AI技术继续重塑法律行业,律师们面临着适应新规范的挑战。法院已经明确表示,律师有责任了解他们使用的工具,包括AI工具的局限性。同时,法律教育机构也需要更新课程,帮助未来的律师了解AI技术的风险和机遇。

法律AI未来

对于那些已经在实践中使用AI的律师来说,关键是要采取负责任的方法。这包括:

  1. 了解AI工具的局限性,特别是它们可能产生幻觉的倾向
  2. 对AI生成的内容进行彻底的事实核查
  3. 保持对研究过程的监督,不要完全依赖AI
  4. 在发现错误时迅速承认并纠正,而不是寻找借口
  5. 持续学习AI技术及其在法律中的应用

结论

AI技术在法律领域的应用既带来了机遇也带来了挑战。虚假AI引用的"流行病"提醒我们,新技术需要负责任的使用和适当的监管。随着法院对这类违规行为的反应越来越严厉,律师们需要认识到,逃避责任只会导致更严重的后果。

正如一位法官所说,"任何不知道AI是玩火的律师都活在云里"。在这个AI技术日益普及的时代,法律专业人士需要清醒地认识到自己的责任,并采取负责任的方法来使用这些强大的工具。只有这样,法律行业才能从AI技术中获益,同时维护其诚信和专业标准的完整性。