引言:法庭上的AI幻觉现象
近年来,随着人工智能技术的迅猛发展,法律行业也未能免俗地拥抱了这一变革。然而,当律师开始依赖AI工具起草法律文件时,一个令人担忧的现象逐渐浮出水面——AI生成的虚假案例引用。一位法官将这种现象称为"流行病",这些虚假引用不仅浪费了法院资源,还对司法公正构成了潜在威胁。
法国律师兼AI研究员Damien Charlotin建立了一个数据库,记录了律师因AI幻觉而被制裁的案例。Ars Technica通过分析这些案例,发现了律师在面对指控时层出不穷的借口,以及法院如何应对这一日益严峻的挑战。
常见借口一:"我不知道这是AI生成的"
自2023年虚假AI引用开始被曝光以来,最受欢迎的借口是律师声称不知道自己使用的文件是由AI生成的。
推卸责任的策略
这种借口往往表现为几种形式:
声称误将AI结果视为普通搜索结果:一位加州律师声称,他被Google的AI概述功能"欺骗",误以为这些是普通的搜索结果。
归咎于下属或客户:许多律师使用此借口时倾向于指责下属,但也有律师将责任推给客户。本月,一位德州律师在受到制裁前,不断推卸责任,最终导致法院不得不传唤其客户作证。客户在证词中承认自己在起草异常文件中发挥了重要作用。
法院质问道:"您的客户是律师吗?"
律师回答:"不,完全不是,她只是在帮我处理案件理论。"
客户的自主决策
值得注意的是,当律师使用AI工具出现问题时,客户往往迅速做出反应。在阿拉巴马州的案例中,律师James A. Johnson因使用AI工具导致虚假引用后,客户当场决定解雇他,尽管这可能"导致审判显著延迟"。
常见借口二:"我不知道AI会编造事实"
另一个流行的借口来自那些假装不知道聊天机器人容易产生幻觉的律师。
"增强"写作的陷阱
最近案例显示,这一借口可能正在演变成变种。上月,一位受制裁的俄克拉荷马律师承认,他只要求ChatGPT"使他的写作更有说服力",并未期望它会添加新的引用。而在9月,一位加州律师陷入了类似的困境——被处以高达10,000美元的罚款,法官称这一罚款"保守"。
该律师要求ChatGPT"增强"他的简要陈述,然后通过其他AI平台运行"增强"后的简要陈述以检查错误,却从未阅读过这些"增强"后的内容。
法院的态度转变
如今,这些陈旧的借口已经很难站得住脚,特别是在已经制定指导方针应对AI幻觉的法院。然而,法院恳求律师迅速承认错误,但几位律师似乎变得绝望,Ars发现许多人以常见的技术问题为由来解释虚假引用案例。
荒谬借口三:"我被黑客攻击了"
当律师感到绝望时,他们会诉诸更加荒谬的借口。
纽约案例的戏剧性转折
在纽约市民事法院,一位名叫Innocent Chinweze的律师最初承认使用Microsoft Copilot起草了错误文件,然后奇怪地转向声称AI引用是由于其计算机上发现的恶意软件所致。
Chinweze说他创建了带有正确引用的草稿,但随后被黑客攻击,允许"行为者"获得"未经授权的远程访问", supposedly在他的文件中添加了错误。
法官对此表示怀疑,称这一借口是"难以置信且没有根据的陈述",特别是没有先前草稿存在的证据。相反,Chinweze要求请专家作证证明黑客攻击确实发生,请求法院在考虑专家分析之前暂停制裁程序。
然而,法官Kimon C. Thermos不必权衡这一论点,因为在法院午餐休息后,律师再次"戏剧性"地改变了立场。
持续的鲁莽行为
可能比律师奇怪的恶意软件论更让Thermos恼火的是,Chinweze在制裁听证当天提交的一份文件。法官指出,该文件包含多个以以下文本开头的摘要:
某些案例元数据和案例摘要是在AI的帮助下编写的,AI可能产生不准确的信息。在依赖它进行法律研究目的之前,您应阅读完整案例。
Thermos谴责Chinweze继续鲁莽地使用AI。他抨击该文件是"一份88页长、没有结构、包含引用案例大部分全文的不连贯文档",并且"显示部分引用案例的讨论/分析是由人工智能编写的明显迹象"。
最终,Thermos命令Chinweze支付1,000美元,这是Ars审查的案例中律师收到的最典型罚款。法官随后采取了一项额外的非金钱制裁措施,将该律师转交给投诉委员会,"鉴于他的不当行为 substantial 并且严重涉及他的诚实、可信度和执业适格性"。
荒谬借口四:"切换窗口太困难了"
阿拉巴马州的一位律师James A. Johnson提出了一个令人难以置信的借口——"切换笔记本电脑上的窗口很困难"。
时间压力下的"错误选择"
Johnson解释说,他不小心使用了一个他不知道会产生幻觉的AI工具。这发生在他"在外州医院照顾接受手术的家庭成员"时。他说,他匆忙起草文件,因为他收到通知,客户的会议突然"提前安排在法院日程上"。
Johnson解释说,在"时间压力和困难个人情况下",他决定使用阿拉巴马州律师协会提供的Fastcase研究工具来研究文件。在他的笔记本电脑上工作,他选择使用"一个名为Ghostwriter Legal的Microsoft Word插件",因为"它自动出现在Word的侧边栏,而Fastcase需要通过阿拉巴马州律师协会网站打开单独的浏览器来访问"。
对Johnson来说,"用触摸板在[他的]笔记本电脑上的程序之间来回切换似乎很繁琐",这意味着他"不幸地陷入了一个开放且可用的新程序的诱惑中"。
法院的严厉回应
地区法官Terry F. Moorer似乎对Johnson声称他理解像ChatGPT这样的工具不可靠,但不期望其他AI法律工具也是如此的说法印象深刻——特别是"Ghostwriter Legal的信息明确表明它使用ChatGPT作为其默认AI程序",Moorer写道。
律师的客户同样感到不快,决定当场解雇Johnson,尽管这冒着"审判显著延迟"的风险。Moorer指出,Johnson似乎因客户的突然决定而动摇,"他震惊、沮丧和情绪化的表情"证明了这一点。
更换新律师可能会消耗更多资金。Moorer进一步指出,Johnson似乎在代表政府工作时让AI代劳。但正如法官所指出的," appointed counsel的公共资金不是无底洞,而是有限资源"。
Moorer得出结论:"很明显,基本的谴责和小额罚款不足以阻止这种不当行为,因为如果是这样,我们就不会在这里了。"
裁定Johnson对AI的依赖"相当于恶意",Moorer imposed了5,000美元的罚款。法官还"考虑过可能的取消资格,但这变得毫无意义",因为Johnson的客户已经解雇了他。
被问及评论时,Johnson告诉Ars,"法院对事实做出了明显错误的认定,制裁正在上诉中"。
荒谬借口五:"登录问题"
佐治亚州的一位律师声称,有时虚假AI引用可能被提交是因为律师意外提交了草稿而非最终版本。
技术故障的借口
其他律师声称,当他们在访问Westlaw或LexisNexis等法律工具时遇到问题时,他们会按需求助于AI。
例如,在爱荷华州,一位律师告诉上诉法院,她在经历"Westlaw订阅的登录问题"后,后悔依赖"次要的AI驱动研究工具"。尽管法院"对技术问题如登录问题表示同情",但该律师受到制裁,主要是因为她只在法院命令她解释错误后才承认使用AI。然而,在这种情况下,她可以选择支付150美元的最低罚款或参加"两小时特定于AI的法律道德培训"。
欺骗行为的揭露
一位律师在指责不准确归咎于她归咎的AI工具时被发现撒谎,路易斯安那州的案例表明了这一点。在该案中,法官要求查看研究历史,一位律师声称AI幻觉来自"使用Westlaw Precision,一个AI辅助研究工具,而不是Westlaw的独立法律数据库"。
事实证明,该律师将研究外包,依赖一个"已被暂停"的律师的AI引用,并且只是"假设"该律师的错误来自Westlaw的AI工具。暂停访问Westlaw登录的律师实际使用了什么工具尚不清楚,但法官在签署文件的律师"同意Westlaw没有生成编造的引用"后,下令处以1,000美元的罚款。
"重复幻觉者"的警示
William T. Panichi的案例
Ars的审查发现,伊利诺伊州的William T. Panichi律师至少被制裁了三次。
对他7月最初判处的处罚做出回应时,他承认在"研究软件之间"时被AI所诱惑。
法院发现该律师自相矛盾,因此下令实施更严厉的制裁。
法院命令称,Panichi"同时承认使用AI生成简要陈述,没有进行任何独立研究,甚至他'在这个上诉案中几乎没有做任何个人工作'",同时辩护收取更高费用——据说因为这个案例"在花费时间方面非同寻常",并且他的办公室"在获取信息方面做了一些出色的工作"。
法院认为这种AI滥用如此严重,以至于Panichi被命令退还他收到的"6,925.62美元付款",外加1,000美元罚款。
持续的问题
Panichi在7月告诉法院:"如果我有幸能够继续在上诉法院执业,我不会再这样做了",就在他在8月又遭受了两轮制裁之前。
Panichi没有立即回应Ars的评论请求。
法院对制裁的态度
当发现AI生成的幻觉时,罚款通常支付给法院、对方律师或两者,取决于谁的时间和资源被浪费在核对虚假案例上。
律师似乎更倾向于反对向对方律师支付罚款,希望尽可能保持罚款最低。一位律师甚至辩称,"在LexisNexis或Westlaw中输入引用只需7.6秒,而不是几小时",同时似乎忽略了没有花这些宝贵的时间检查自己的引用。
该案法官Nancy Miller明确表示,"此类陈述显示了对律师义务令人震惊的无知",指出"纠正错误和虚假引用的责任永远不会转移到对方律师或法院,即使他们是第一个注意到错误的人"。
Miller说:"减轻此类错误造成的损害的责任仍然在于签署人。" "尽快正确纠正这些错误,无论是通过撤回还是修改和补充有缺陷的申诉,涉及每个人的时间浪费越少,产生的成本也越少。"
德克萨斯州联邦地方法官Marina Garcia Marmolejo表示同意,指出甚至更多时间被浪费在确定其他法官如何应对虚假AI引用上。
她说:"在这个国家最繁忙的法庭日程之一,资源稀少,无法首先筛选出错误的AI引用,更不用说调查这一主题不断增长的判例法了。"
行业反思与未来展望
法官的严厉警告
伊利诺伊州美国破产法官Michael B. Slade似乎已经厌倦权衡借口,呼吁所有律师停止使用给法院带来负担的AI捷径。
Slade直言不讳地写道:"坦率地说,现在任何不知道使用生成式AI平台进行法律研究是在玩火的律师都是生活在云里。"
法律行业的责任
随着AI在法律领域的应用日益广泛,法律从业者必须认识到,AI工具虽然强大,但并非完美无缺。律师有责任确保其提交的文件准确无误,这包括对AI生成的内容进行严格审查。
法院已经明确表示,简单的道歉或小额罚款不足以阻止不当行为。相反,律师需要采取主动措施,包括:
- 透明度:一旦检测到AI使用,立即承认
- 谦逊态度:承认错误并采取纠正措施
- 自我报告:向相关法律协会报告错误
- 持续教育:自愿参加AI与法律相关的课程
建立行业规范
面对这一挑战,法律行业需要建立明确的AI使用规范和标准。这些规范应包括:
- AI工具使用的透明度要求
- 对AI生成内容的验证程序
- 违反规定的严厉处罚措施
- 持续的专业教育要求
只有通过建立这些规范,法律行业才能在享受AI带来便利的同时,维护司法系统的公正性和可靠性。
结论:AI与法律的平衡之道
律师虚假引用的荒谬借口揭示了法律行业在拥抱新技术时面临的伦理挑战。然而,这些案例也为我们提供了宝贵的学习机会,帮助我们找到AI与法律实践之间的平衡点。
未来,法律从业者需要认识到,AI应该是辅助工具,而非替代专业判断。通过建立适当的规范和标准,法律行业可以充分利用AI的优势,同时避免其潜在风险,确保司法系统的公正和效率。
正如一位法官所言:"任何不知道使用生成式AI平台进行法律研究是在玩火的律师都是生活在云里。" 法律行业需要清醒认识到这一点,并采取相应措施,确保AI技术的正确应用。











