律师AI引用造假:法庭上的荒谬借口与行业危机

1

在当今法律科技迅猛发展的时代,人工智能正以前所未有的方式重塑法律实践。然而,伴随这一变革而来的是一系列令人震惊的法庭丑闻——律师们因使用AI工具生成虚假案例引用而面临严厉处罚。更令人担忧的是,当这些行为被发现时,许多律师选择的不是坦诚面对,而是编造各种荒谬的借口试图逃避责任。

AI幻觉:法庭上的流行病

2023年以来,虚假AI生成的案例引用在法庭上呈'流行病'式蔓延,一位法官称之为'epidemic'。根据法国律师兼AI研究员Damien Charlotin汇编的数据库,《Ars Technica》审查了23起因AI幻觉而受到处罚的案例。这些案例共同揭示了一个令人不安的趋势:越来越多的律师依赖AI工具进行法律研究,却忽视了这些工具可能产生的虚构内容。

在众多案例中,法官们普遍指出,最简单且有效的避免或减轻处罚的方式是:一旦发现AI使用,立即承认事实,保持谦逊态度,向相关法律协会主动报告错误,并自愿参加AI与法律相关课程。然而,并非所有律师都选择这条阻力最小的道路,许多人反而提出了连法官都无法信服的借口,甚至有人对使用AI一事撒谎。

常见借口:从无知到荒谬

"我不知道我使用了AI"

自2023年虚假AI引用被公开报道以来,最受欢迎的借口是律师声称不知道AI被用于起草法律文件。有时,这意味着辩称自己没有意识到在使用AI,例如一位加州律师声称被谷歌的AI摘要(Overviews)所欺骗,误将其当作典型的谷歌搜索结果。

更常见的情况是,使用这种借口的律师往往将责任归咎于下属,有时也会责备客户。本月,一位德州律师在被处罚后,推诿责任到如此程度,以至于法庭最终不得不传唤其客户作证,因为该律师透露客户在起草异常文件中发挥了重要作用。

"您的客户是律师吗?"法庭问道。

"不,绝对不是法官大人,只是在帮我处理案件理论方面提供帮助,"这位律师回答。

"我不知道聊天机器人会产生幻觉"

另一个流行的辩解来自那些假装不知道聊天机器人容易产生幻觉事实的律师。最近的案例表明,这种借口可能正在演变成变种。上个月,一位受到处罚的俄克拉荷马州律师承认,他只是要求ChatGPT"使他的写作更有说服力",并没有期望它会添加新的引用。而在9月,一位加州律师陷入了类似的困境——被处以高达10,000美元的罚款,法官称这一罚款是"保守的"。该律师要求ChatGPT"增强"他的简报,然后通过其他AI平台运行"增强"后的简报以检查错误,却从未阅读过这些"增强"后的简报。

如今,这些陈旧的借口已无多少分量,尤其是在已经制定指导方针应对AI幻觉的法庭。但正如法庭所恳求的那样,一些律师似乎没有迅速承认错误,反而变得绝望。《Ars Technica》发现许多人 citing常见的技术问题作为引用虚假案例的原因。

当不确定时,责备黑客?

对于极端案例,可以看看纽约市民事法庭,那里一位名叫Innocent Chinweze的律师最初承认使用Microsoft Copilot起草了错误的文件,然后奇怪地转向声称AI引用是由于其计算机上发现的恶意软件所致。

Chinweze说他创建了一个带有正确引用的草稿,但随后被黑客入侵,允许行为者"未经授权的远程访问",据说在他的文件中添加了错误。

法官对此表示怀疑,将这一描述为"难以置信且缺乏支持的陈述",特别是因为没有先前草稿存在的证据。相反,Chinweze要求请专家作证证明黑客确实发生过,请求在法庭权衡专家分析之前暂停制裁程序。

然而,法官Kimon C. Thermos不必权衡这一论点,因为在法庭午餐休息后,律师再次"戏剧性地"改变了自己的立场。

"他不再希望推迟专家就恶意软件或未经授权访问其计算机作证,"Thermos在发布制裁令的命令中写道。"他退回到"他最初的位置,即他使用Copilot辅助研究,没有意识到它可能生成虚假案例"。

尽管如此,可能比律师奇怪的恶意软件论令Thermos更恼火的是,Chinweze在制裁听证当天提交的一份文件。法官注意到,该文件包含多个以以下文本开头的摘要:

某些案例元数据和案例摘要是在AI的帮助下编写的,这可能产生不准确的内容。在依赖它进行法律研究目的之前,您应阅读完整案例。

Thermos谴责Chinweze继续鲁莽使用AI。他抨击该文件是"一份88页长、结构混乱、包含所引用案例的大部分全文的文件,"并且"显示出讨论/分析所引用案例的部分是由人工智能编写的明显迹象"。

最终,Thermos命令Chinweze支付1,000美元罚款,这是《Ars Technica》审查的案例中律师收到的最典型罚款。然后,法官采取了一项额外的非金钱制裁措施,将这位律师转交给申诉委员会,"鉴于他的不当行为是实质性的,并且严重影响了他的诚实性、可靠性和从业资格"。

《Ars Technica》无法立即联系Chinweze置评。

笔记本电脑上切换窗口很困难

在阿拉巴马州,一位名叫James A. Johnson的律师犯了一个"令人尴尬的错误",美国地方法院法官Terry F. Moorer在10月的制裁命令中指出,这主要是因为在笔记本电脑上切换窗口很困难。

Johnson解释说他不小心使用了一个他不知道可能产生幻觉的AI工具。他说这件事发生在他"在州外医院照顾接受手术的家庭成员康复期间"。他说他匆忙起草文件,因为他收到通知,客户的会议突然"在法庭日程上提前"。

"在时间压力和困难个人情况下,"Johnson解释说,他决定使用阿拉巴马州律师协会提供的Fastcase研究工具来研究文件。在他的笔记本电脑上工作,他选择使用"一个名为Ghostwriter Legal的Microsoft Word插件",因为"它自动出现在Word侧边栏,而Fastcase需要通过阿拉巴马州律师协会网站打开单独的浏览器来访问"。

对Johnson来说,感觉"在笔记本电脑上用触摸板在程序之间来回切换很繁琐",这意味着他"不幸陷入了一个打开且可用的新程序的诱惑中"。

Moorer似乎对Johnson声称他理解像ChatGPT这样的工具不可靠,但没想到其他AI法律工具也会如此表示不以为然——特别是因为"Ghostwriter Legal的信息明确表明它使用ChatGPT作为其默认AI程序",Moorer写道。

这位律师的客户同样感到反感,决定当场解雇Johnson,尽管这可能导致"审判的显著延迟"。Moorer注意到Johnson似乎对其客户的突然决定感到震惊,证据是"他震惊、沮丧和情绪化的表情"。

更换新律师可能会花掉更多钱。Moorer进一步指出,Johnson似乎让AI代表政府做他的工作。但正如法官所指出的,"指定律师的公共资金不是无底洞,而是有限资源"。

"很明显,基本的谴责和小额罚款不足以阻止这种不当行为,因为如果是这样,我们就不会在这里了,"Moorer总结道。

裁定Johnson对AI的依赖"等同于恶意",Moorer imposed了5,000美元罚款。法官本来会"考虑潜在的不合格资格,但这变得毫无意义",因为Johnson的客户已经解雇了他。

被要求置评时,Johnson告诉《Ars Technica》"法庭对事实的认定明显错误,制裁正在上诉中"。

受困于登录问题

正如一位佐治亚州律师所述,有时虚假AI引用可能被提交是因为律师意外提交了草稿而不是最终版本。

其他律师声称,当他们在访问Westlaw或LexisNexis等法律工具遇到困难时,会按需求助于AI。

例如,在爱荷华州,一位律师告诉上诉法院,在"她的Westlaw订阅遇到登录问题"后,她后悔依赖"次要的AI驱动研究工具"。尽管法庭"对技术问题表示同情,如登录问题",但该律师受到了处罚,主要是因为她只在法庭命令她解释错误后才承认使用AI。然而,在她的案例中,她可以选择支付最低150美元的罚款或参加"两小时特定于AI的法律伦理培训"。

一位因对归咎于AI工具的不准确性撒谎而 caught的律师的情况则不那么令人同情,路易斯安那州的案例表明。在该案中,一位法官在律师声称AI幻觉来自"使用Westlaw Precision,一个AI辅助研究工具,而不是Westlaw的独立法律数据库"后,要求查看研究历史。

事实证明,该律师将研究外包给了一个"目前被暂停"的律师的AI引用,并且只是"假设"该律师的错误来自Westlaw的AI工具。暂停的律师实际使用了什么工具尚不清楚,他可能失去了Westlaw的登录权限,但签署文件的律师"同意Westlaw没有生成虚构的引用"后,法官下令处以1,000美元的罚款。

法官警告"连环幻觉者"

《Ars Technica》的审查发现,另一位伊利诺伊州的律师William T. Panichi至少被处罚了三次。

对他7月份最初判处的处罚,他承认在"研究软件之间"被AI所诱惑。

在这种情况下,法庭沮丧地发现律师自相矛盾,并因此下令更严厉的制裁。

Panichi"同时承认使用AI生成简报,没有做任何自己的独立研究,甚至他'几乎没有在这个上诉中亲自做任何工作',"法庭命令说,同时辩护收取更高的费用——据说因为这个案例"在花费时间方面不寻常",他的办公室"在获取信息方面做了一些出色的工作"。

法庭认为这种AI滥用如此严重,以至于Panichi被命令退还他收到的"6,925.62美元付款",外加1,000美元罚款。

"如果我有幸能够在上诉法院继续执业,我不会再这么做了,"Panichi在7月告诉法庭,就在8月又受到两轮制裁之前。

Panichi没有立即回应《Ars Technica》的置评请求。

当发现AI生成的幻觉时,罚款通常支付给法庭、对方律师或两者,具体取决于谁的时间资源被浪费核验虚假案例。

律师似乎更倾向于反对向对方律师支付罚款,希望尽可能保持罚款最低。一位律师甚至辩称"在LexisNexis或Westlaw中输入引用只需要7.6秒,而不是几个小时",同时似乎忽略了没有花这些宝贵的秒数检查自己的引用。

该案法官Nancy Miller明确表示,"此类陈述显示出对律师义务令人震惊的无知",指出"纠正错误和虚假引用的责任永远不会转移到对方律师或法庭,即使他们是第一个注意到错误的人"。

"减轻此类错误造成的损害的责任仍在于签署者,"Miller说。"此类错误得到适当纠正得越早,无论是通过撤回还是修改和补充有问题的诉状,涉及各方浪费的时间就越少,产生的成本也越少。"

德州美国地方法院法官Marina Garcia Marmolejo表示同意,她指出确定其他法官如何应对虚假AI生成的引用会浪费更多时间。

"在全国最繁忙的法庭日程之一,几乎没有资源可以首先找出错误的AI引用,更不用说调查这个主题不断增长的判例法了,"她说。

至少一位佛罗里达州法庭对一位律师在滥用AI后拒绝支付对方律师声称应得的费用表示"震惊,震惊"。该案中的律师James Martin Paul要求支付所欠费用和成本的四分之一以下,辩称Charlotin的数据库显示他可能 otherwise 需要支付迄今为止"使用AI生成判例法所支付的最大罚款"。

但向Paul的论点让步"只会有利于连环幻觉者",佛罗里达州法庭发现。最终,Paul被处以超过85,000美元的罚款,法庭称其行为比数据库中的其他违规者"严重得多",谴责他"反复的、虐待性的、恶意的行为,不能被视为合法的法律实践,必须被制止"。

Paul没有立即回应《Ars Technica》的置评请求。

伊利诺伊州美国破产法官Michael B. Slade似乎已经厌倦了权衡借口,呼吁所有律师停止使用给法庭带来负担的AI捷径。

"坦率地说,到目前为止,任何不知道使用生成式AI平台进行法律研究是在玩火的律师都是活在自己的云中,"Slade写道。

法律行业的AI责任危机

这些案例共同揭示了一个更深层次的问题:法律行业在拥抱AI技术的同时,未能建立相应的责任机制和专业规范。随着AI工具在法律实践中的普及,律师们面临着前所未有的专业挑战——如何在提高效率的同时保持法律研究的准确性和可靠性。

多位法官在裁决中强调,律师有不可推卸的责任确保提交给法庭的所有信息准确无误。无论使用何种工具进行法律研究,最终的验证责任始终在于律师本人。这种责任不会因为使用了AI而减轻或转移。

建立AI时代的法律伦理框架

面对AI引用造假这一日益严重的问题,法律行业亟需建立明确的AI使用规范和伦理框架。这包括:

  1. AI工具使用的透明度:律师应在适当时候向法庭和客户披露AI工具的使用情况。
  2. 严格的验证程序:建立针对AI生成内容的强制验证流程,特别是对于案例引用和法律依据。
  3. 持续的专业教育:加强对律师关于AI工具能力局限性的培训,提高对AI幻觉的认识。
  4. 行业自律机制:通过律师协会等机构制定AI使用指南,并建立相应的监督和处罚机制。

结语:法律专业在AI时代的坚守

AI技术无疑为法律行业带来了效率革命,但正如这些案例所示,技术进步不能以牺牲专业责任和司法诚信为代价。在AI时代,法律专业人士面临的不仅是技术适应的挑战,更是如何在变革中坚守法律职业核心价值的考验。

正如一位法官所言,"任何不知道使用生成式AI平台进行法律研究是在玩火的律师都是活在自己的云中"。在法律与科技的交汇点,唯有保持清醒的专业判断和对法律责任的敬畏,才能确保技术真正服务于正义,而非成为逃避专业责任的借口。

AI与法律

AI技术正在重塑法律实践,但也带来了新的伦理挑战。法律专业人士需要在拥抱创新的同时坚守专业责任。