在当今数字化时代,人工智能技术正以前所未有的速度渗透到各行各业,法律领域也不例外。然而,随着AI工具在法律实践中的广泛应用,一系列令人担忧的问题也随之浮现。根据法国律师兼AI研究员Damien Charlotin汇编的数据库统计,自2023年以来,已有23起律师因使用AI生成虚假法律引用而受到制裁的案件。这些案件不仅浪费了司法资源,更对法律行业的专业性和可信度构成了严重威胁。
AI法律引用问题的现状
一位法官将虚假AI生成的法律引用描述为法院系统中的"流行病"。这一问题已经引起了司法界的高度关注,因为虚假引用不仅会导致案件延误,还可能影响司法公正。在Ars Technica审查的23起案例中,大多数法官都指出,律师最简单的规避或减轻制裁的方法就是承认使用了AI,表现出谦逊的态度,并向相关法律协会主动报告错误,自愿参加AI与法律相关的课程。
然而,并非每位律师都选择这条阻力最小的道路。相反,许多人提出了各种被法官认为不可信的借口,甚至有人谎称自己没有使用AI。这些借口五花八门,从技术故障到个人困难,无所不包,充分暴露了部分法律专业人士在面对新技术时的逃避心态。
常见的荒唐借口分析
"我不知道这是AI生成的"
自2023年虚假AI引用问题被公开以来,最受欢迎的借口是律师声称不知道文件是由AI生成的。
在某些情况下,这意味着辩称没有意识到自己正在使用AI,例如一位加利福尼亚律师声称被Google的AI摘要功能"欺骗",他误将这些结果当作典型的Google搜索结果。更常见的是,使用这种借口的律师往往会归咎于下属,但有时也会归咎于客户。
本月,一位德克萨斯律师在受到制裁前,不断推卸责任,最终法院不得不传唤他的客户作证,因为该客户在起草异常文件中扮演了重要角色。
"你的客户是律师吗?" 法院问道。
"不,完全不是,阁下,她只是在帮我处理案件的理论部分," 这位律师回答道。
"我不知道聊天机器人会产生幻觉"
另一个常见的托词来自那些假装不知道聊天机器人容易产生事实幻觉的律师。
近期的案例表明,这个借口可能正在演变成变种形式。上个月,一位受到制裁的俄克拉荷马律师承认,他只要求ChatGPT"让他的写作更有说服力",但没想到它会添加新的引用。而在9月,一位加利福尼亚律师陷入了类似的困境——被处以高达10,000美元的罚款,法官称这一罚款"保守"。该律师要求ChatGPT"增强"他的简报,然后通过其他AI平台运行"增强"后的简报以检查错误,却从未阅读过这些"增强"后的简报。
如今,这些老掉牙的借口在许多法院已经站不住脚,特别是那些已经制定指导方针来应对AI幻觉的法院。然而,正如法院所恳求的那样,几位律师似乎变得绝望,而不是迅速承认自己的失误。
极端借口案例
归咎于黑客攻击
对于极端案例,我们可以看看纽约市民事法院,那里的一位律师Innocent Chinweze最初承认使用Microsoft Copilot起草了错误的文件,然后奇怪地转向声称AI引用是由于计算机上发现的恶意软件所致。
Chinweze说他创建了一个包含正确引用的草稿,但随后被黑客入侵,允许不良行为者"未经授权的远程访问",据称在他的文件中添加了错误。
法官对此表示怀疑,将这一描述为"难以置信且缺乏支持的陈述",特别是没有证据表明先前存在的草稿。相反,Chinweze要求传专家作证证明黑客攻击确实发生,要求在法院权衡专家分析之前暂停制裁程序。
然而,法官Kimon C. Thermos不必权衡这一论点,因为在法院午餐休会期间,这位律师又一次"戏剧性地"改变了自己的立场。
"他不再希望为关于恶意软件或未经授权访问其计算机的专家作证而休会," Thermos在发布制裁的命令中写道。"他退回到""他最初的位置,即他使用Copilot辅助研究,但没有意识到它可能生成虚假案例。"
尽管如此,比起律师奇怪的恶意软件论,Thermos可能更恼火的是Chinweze在制裁听证当天提交的一份文件。法官指出,该文件包含多个由以下文本开头的摘要:
一些案例元数据和案例摘要是在AI的帮助下编写的,AI可能产生不准确的内容。在依赖法律研究目的之前,您应阅读完整案例。
Thermos严厉批评Chinweze继续鲁莽使用AI。他抨击该文件是"一份长达88页、结构混乱、包含引用案例的大部分全文、且显示引用案例的讨论/分析部分明显由人工智能撰写的连贯性文件。"
最终,Thermos命令Chinweze支付1,000美元,这是Ars审查的案件中律师收到的最典型罚款。然后,法官采取了一项额外的非金钱制裁措施,将这位律师转交给投诉委员会,"鉴于他的不当行为严重且严重涉及他的诚实性、可信度和从事法律实践的适宜性。"
笔记本电脑窗口切换困难
在阿拉巴马州,一位名叫James A. Johnson的律师犯了一个"令人尴尬的错误",美国地区法官Terry F. Moorer在10月的制裁命令中指出,这主要是因为在笔记本电脑上切换窗口很困难。
Johnson解释说他不小心使用了一个他不知道会产生幻觉的AI工具。他说,这发生在他"在外州医院照顾接受手术的家庭成员康复期间"。他说,他匆忙起草文件是因为收到通知,客户的会议突然"在法院日程上提前了。"
"在时间压力和困难个人情况下," Johnson解释说,他决定使用阿拉巴马州律师协会提供的Fastcase研究工具来研究文件。在他的笔记本电脑上工作,他选择使用"一个名为Ghostwriter Legal的Microsoft Word插件",因为"它自动出现在Word的侧边栏,而Fastcase需要通过阿拉巴马州律师协会网站在单独的浏览器中访问。"
对Johnson来说,"用触摸板在[他的]笔记本电脑上的程序之间来回切换很繁琐",这意味着他"不幸地成为了一个开放且可用的新程序的诱惑的受害者。"
Moorer似乎对Johnson声称他了解像ChatGPT这样的工具不可靠,但没有对其他AI法律工具抱有同样的期望感到印象深刻——特别是"Ghostwriter Legal的信息明确表明它使用ChatGPT作为其默认AI程序," Moorer写道。
这位律师的客户同样感到反感,决定当场解雇Johnson,尽管这可能导致"审判的显著延迟"。Moorer指出,Johnson似乎因客户的突然决定而动摇,表现为"他的震惊、沮丧和情绪表现。"
而且,更换新律师可能会花掉更多的钱。Moorer进一步指出,Johnson似乎让AI代表政府做了他的工作。但正如法官所指出的," appointed counsel的公共资金不是一个无底洞,而是有限资源。"
"很明显,基本的谴责和小额罚款不足以阻止这种不当行为,因为如果是这样,我们就不会在这里了," Moorer总结道。
裁定Johnson对AI的依赖"等同于恶意",Moorer处以5,000美元罚款。法官本来会"考虑取消资格,但这已经变得无关紧要",因为Johnson的客户已经解雇了他。
被问及评论时,Johnson告诉Ars,"法院对事实的认定明显错误,制裁正在上诉中。"
登录问题困扰
正如一位佐治亚州律师所说,有时虚假AI引用可能被提交,是因为律师意外提交了草稿而不是最终版本。
其他律师声称,当他们难以访问Westlaw或LexisNexis等法律工具时,他们会按需求助于AI。
例如,在爱荷华州,一位律师告诉上诉法院,在经历了"Westlaw订阅的登录问题"后,她后悔依赖"二级AI驱动的研究工具"。尽管法院"对技术问题表示同情,例如登录问题",但该律师受到制裁,主要是因为她只在法院命令她解释错误后才承认使用AI。然而,在这种情况下,她可以选择支付最低150美元的罚款或参加"两小时特定于AI的法律道德培训。"
同样缺乏同情心的是一位律师,她被发现对自己归咎于AI工具的不准确性撒谎,路易斯安那州的案例表明。在该案中,一位法官在律师声称AI幻觉来自"使用Westlaw Precision,一个AI辅助研究工具,而不是Westlaw的独立法律数据库"后,要求查看研究历史。
事实证明,该律师外包了研究工作,依赖一位"目前被暂停"执业的律师的AI引用,并且只是"假设"该律师的错误来自Westlaw的AI工具。暂停执业的律师实际使用了什么工具尚不清楚,他可能失去了Westlaw的登录权限,但签署文件的律师在"同意Westlaw没有生成虚假引用"后,被处以1,000美元的罚款。
"重复幻觉者"的警示
另一位律师伊利诺伊州的William T. Panichi,Ars的审查发现,他至少受到了三次制裁。
对他7月最初判处的处罚作出回应时,他承认在"研究软件之间转换"时被AI所诱惑。
在该案中,法院沮丧地发现该律师自相矛盾,并因此判定了更严厉的制裁。
Panichi "同时承认使用AI生成简报,没有做任何自己的独立研究,甚至他'在这个上诉案中几乎没有做任何个人工作',"法院命令称,同时辩护收取更高的费用——据称是因为这个案例"在花费时间方面非同寻常",他的办公室"在获取信息方面做了一些出色的工作"。
法院认为这种AI滥用如此严重,以至于Panichi被命令退还他收到的"6,925.62美元付款",外加1,000美元罚款。
"如果我有幸能够在上诉法院继续执业,我不会再这样做了," Panichi在7月告诉法院,就在他在8月又受到两轮制裁之前。
Panichi没有立即回复Ars的评论请求。
法院对律师责任的强调
当发现AI生成的幻觉时,罚款通常支付给法院、对方律师或两者,具体取决于谁的时间和资源被浪费在核对虚假案例上。
律师似乎更倾向于反对向对方律师支付罚款,希望将罚款保持在尽可能低的水平。一位律师甚至辩称,"在LexisNexis或Westlaw中输入引用只需要7.6秒,而不是几小时",同时似乎忽视了这样一个事实:她没有花这宝贵的几秒钟来检查自己的引用。
该案法官Nancy Miller明确表示,"此类陈述显示出对律师义务令人震惊的无知",并指出"纠正错误和虚假引用的责任永远不会转移到对方律师或法院,即使他们是第一个注意到错误的人。"
"减轻此类错误造成的损害的责任仍然在于签署人," Miller说。"通过撤回或修改和补充有问题的诉状来正确纠正此类错误越快,所涉及各方浪费的时间就越少,产生的成本就越少。"
德克萨斯州美国地区法官Marina Garcia Marmolejo表示赞同,她解释说,确定其他法官如何应对虚假AI生成的引用会浪费更多时间。
"在这个国家最繁忙的法院日程之一,几乎没有资源可以首先找出错误的AI引用,更不用说调查这一主题不断增长的判例法了," 她说。
至少佛罗里达州一家法院"震惊,震惊"地发现一位律师在滥用AI后拒绝支付对方律师所说的欠款。该案中的律师James Martin Paul要求支付所欠费用和成本的四分之一以下,辩称Charlotin的数据库显示他可能需要支付"迄今为止因使用AI生成判例法而支付的最大罚款。"
但向Paul的论点让步"只会使重复的幻觉者受益," 佛罗里达法院发现。最终,Paul因法院所称的"比数据库中其他被控者严重得多的"行为而被制裁超过85,000美元,谴责他"重复的、虐待性的、恶意的行为,不能被视为合法的法律实践,必须被制止。"
Paul没有立即回复Ars的评论请求。
专家观点与行业反思
伊利诺伊州美国破产法官Michael B. Slade似乎已经厌倦了权衡借口,呼吁所有律师停止使用给法院带来负担的AI捷径。
"坦率地说,到目前为止,任何不知道使用生成式AI平台进行法律研究是在玩火的律师都生活在云中," Slade写道。
这一观点反映了法律行业对AI技术使用的深刻反思。随着AI技术在法律领域的应用日益广泛,法律专业人士面临着前所未有的挑战和机遇。一方面,AI可以提高法律研究的效率和准确性;另一方面,过度依赖AI可能导致专业能力的退化,甚至引发伦理和法律风险。
法律行业的AI使用指南
基于对23起案例的分析,我们可以为法律从业者提供以下几点AI使用建议:
透明度原则:在法律文件中使用AI辅助工具时,应明确告知客户和法院,确保所有相关方了解AI的使用情况。
验证义务:AI生成的任何法律引用和内容都必须经过人工验证,确保其准确性和可靠性。
持续教育:法律专业人士应积极参与AI技术的培训和学习,了解最新发展和最佳实践。
伦理考量:在使用AI时,应始终考虑职业伦理要求,避免任何可能损害客户利益或司法公正的行为。
风险意识:充分认识到AI技术的局限性,特别是在法律研究和文件起草方面的潜在风险。
结论
AI技术在法律领域的应用既是挑战也是机遇。虚假AI引用案件的增长反映了法律行业在适应新技术过程中面临的困境。然而,通过提高专业责任感、加强伦理教育和完善监管机制,法律专业人士可以更好地利用AI技术,同时维护行业的专业性和可信度。
正如一位法官所言,"任何不知道使用生成式AI平台进行法律研究是在玩火的律师都生活在云中。" 在数字化时代,法律专业人士必须与时俱进,既要拥抱技术创新,又要坚守专业伦理,才能在变革中保持法律行业的核心价值。
最终,AI应该被视为法律从业者的辅助工具,而非替代品。通过合理、负责任地使用AI技术,法律行业可以提高效率、降低成本,同时确保法律服务的质量和公正性得到维护。这不仅是对法律专业人士的要求,也是对整个司法系统的责任。









