在当今法律界,人工智能正以前所未有的速度改变着律师的工作方式。然而,随着AI工具在法律文书中的广泛应用,一个令人担忧的现象正在法庭上蔓延——AI生成的虚假引证。这些由AI'幻觉'产生的虚假案例,不仅浪费了法庭和律师的时间,更对司法公正构成了潜在威胁。

法国律师兼AI研究员达米安·夏洛廷(Damien Charlotin)建立了一个数据库,记录了律师因AI幻觉而被制裁的案例。通过分析23个相关案例,我们发现了一个令人不安的趋势:许多律师在被发现使用AI生成虚假引证后,不是坦率承认错误,而是编造各种荒谬的借口试图逃避责任。
借口一:我不知道这是AI生成的
自2023年虚假AI引证问题被公开以来,最受欢迎的借口是'我不知道这是AI生成的'。有些律师声称自己没有意识到在使用AI,就像一位加利福尼亚律师,他声称自己被谷歌的AI概览功能欺骗,误将其视为普通的谷歌搜索结果。
更常见的做法是将责任推给下属。一位德克萨斯州律师因不断推诿,最终导致法院传唤他的客户作证,结果发现客户在起草异常文件中扮演了重要角色。
'你的客户是律师吗?'法院问道。
'不,绝对不是阁下,她只是在帮我处理案件理论,'这位律师回答道。
借口二:我不知道AI会产生幻觉
另一个常见的借口是假装不知道聊天机器人容易产生事实幻觉。最近的案例表明,这个借口正在演变成变种。上个月,一位被制裁的俄克拉荷马州律师承认,他只要求ChatGPT'让他的写作更有说服力',没想到它会添加新的引证。
9月份,一位加利福尼亚律师陷入了类似的困境——被处以高达10,000美元的罚款,法官称这一罚款'保守'。这位律师要求ChatGPT'增强'他的简报,然后通过其他AI平台运行这些'增强'的简报以检查错误,却从未阅读过这些'增强'的简报。
借口三:我被黑客攻击了
当怀疑时,责怪黑客?这是一个极端的例子,出现在纽约市民事法庭,一位名叫伊诺森·奇恩韦泽的律师最初承认使用微软Copilot起草了错误的文件,然后奇怪地转向声称AI引证是由于他电脑上发现的恶意软件造成的。
奇恩韦泽说他创建了带有正确引证的草稿,但随后被黑客入侵,允许不良行为者'未经授权的远程访问',据称在他的文件中添加了错误。
法官对此表示怀疑,将这一描述为'难以置信且毫无根据的声明',特别是没有证据表明先前草稿的存在。相反,奇恩韦泽要求请专家作证证明黑客攻击确实发生,要求在法院权衡专家分析之前结束制裁程序。
然而,法官基蒙·C·塞莫斯不必权衡这个论点,因为在法院午休后,这位律师再次'戏剧性地'改变了自己的立场。
'他不再希望推迟专家就恶意软件或未经授权访问其电脑作证,'塞莫斯在发布制裁令的命令中写道。'他退回到'最初的立场,即他使用Copilot帮助进行研究,但没有意识到它可能生成虚假案例'。
借口四:切换窗口太难了
在阿拉巴马州,一位名叫詹姆斯·A·约翰逊的律师称这是一个'令人尴尬的错误',主要是因为在笔记本电脑上切换窗口很困难,美国地方法官特里·F·穆勒在10月的制裁令中指出。
约翰逊解释说,他不小心使用了一个他不知道会产生幻觉的AI工具。这发生在他'在外州医院照顾接受手术的家庭成员康复期间'。他说,他匆忙起草文件,因为他收到通知,客户的会议突然'被提前安排在法院日程上'。
'在时间压力和困难个人情况下,'约翰逊解释说,他决定不使用阿拉巴马州律师协会提供的Fastcase研究工具来研究文件。在他的笔记本电脑上工作,他转而使用'一个叫做Ghostwriter Legal的Microsoft Word插件',因为'它自动出现在Word的侧边栏,而Fastcase需要通过阿拉巴马州律师协会网站打开单独的浏览器才能访问'。
对约翰逊来说,'用触摸板在笔记本电脑上的程序之间来回切换感觉很繁琐',这意味着他'不幸地陷入了一个开放且可用的新程序的诱惑'。
穆勒似乎对约翰逊声称他理解像ChatGPT这样的工具不可靠,但没想到其他AI法律工具也会出现同样问题感到不以为然——特别是'Ghostwriter Legal的信息明确表明它使用ChatGPT作为其默认AI程序',穆勒写道。
借口五:这只是初稿
正如一位佐治亚州律师所说,有时虚假AI引证可能被提交,是因为律师意外提交了初稿而不是最终版本。
其他律师声称,当他们难以访问Westlaw或LexisNexis等法律工具时,他们会按需求助于AI。
例如,在爱荷华州,一位律师告诉上诉法院,在经历了'Westlaw订阅登录问题'后,她后悔依赖'次要的AI驱动研究工具'。尽管法院'对技术问题表示同情,如登录问题',但这位律师还是受到了制裁,主要是因为她只是在法院命令她解释错误后才承认使用AI。然而,在她的案例中,她可以选择支付最低150美元的罚款或参加'两小时针对AI的法律伦理培训'。
法官警告'反复出现幻觉者'
另一位律师伊利诺伊州的威廉·T·帕尼奇,Ars的审查发现,他至少被制裁了三次。对他7月份最初判处的处罚,他承认在'研究软件之间'时被AI所诱惑。
在这种情况下,法院沮丧地发现律师自相矛盾,并因此下令实施更严厉的制裁。
帕尼奇'同时承认使用AI生成简报,没有做任何自己的独立研究,甚至他'自己在这个上诉中几乎没有做任何个人工作','法院命令说,同时辩护收取更高的费用—— supposedly因为这个案例'在花费时间方面非同寻常',他的办公室'在获取信息方面做了一些出色的工作'。
法院认为这种AI滥用如此严重,以至于帕尼奇除了被处以1,000美元罚款外,还被命令退还他收到的'6,925.62美元付款'。
'如果我有幸能够在上诉法院继续执业,我不会再这么做了,'帕尼奇在7月告诉法院,就在8月又受到两轮制裁之前。
法院对AI滥用的应对
当发现AI生成的幻觉时,罚款通常支付给法院、对方律师或两者,取决于谁的时间和资源被浪费在核对虚假案例上。
律师似乎更倾向于反对向对方律师支付罚款,希望将罚款保持在尽可能低的水平。一位律师甚至辩称'在LexisNexis或Westlaw中输入引证只需要7.6秒,而不是几个小时',似乎忽略了没有花这些宝贵的时间检查自己的引证。
该案法官南希·米勒明确表示,'此类陈述显示出对律师义务令人震惊的无知',指出'纠正错误和虚假引证的责任永远不会转移到对方律师或法院,即使他们是第一个注意到错误的人'。
'减轻此类错误造成的损害的责任仍然在于签署人,'米勒说。'越早正确纠正这些错误,无论是通过撤回还是修改和补充有问题的诉状,涉及每个人的浪费的时间就越少,产生的成本也越少。'
德克萨斯州联邦地方法官玛丽娜·加西亚·莫莫莱霍同意,指出确定其他法官如何应对虚假AI引证会浪费更多时间。
'在这个国家最繁忙的法院日程之一,几乎没有资源可以首先找出错误的AI引证,更不用说调查这个主题不断增长的判例法了,'她说。
结论:法律专业与AI的平衡
至少有一个佛罗里达法院'震惊,震惊'地发现一位律师在被误用AI后拒绝支付对方律师所说的欠款。该案中的律师詹姆斯·马丁·保罗要求支付所欠费用和成本的四分之一以下, arguing夏洛廷的数据库显示他可能 otherwise 欠下'迄今为止因使用AI生成判例法而支付的最大罚款'。
但接受保罗的论点'只会使反复出现幻觉的人受益',佛罗里达法院发现。最终,保罗被处以超过85,000美元的罚款,法院称其行为比数据库中的其他违规者'严重得多',谴责他'重复的、虐待性的、恶意的行为,不能被视为合法的法律实践,必须被制止'。
伊利诺伊州美国破产法官迈克尔·B·斯莱德似乎已经厌倦了权衡借口,呼吁所有律师停止采取给法院带来负担的AI捷径。
'坦率地说,到目前为止,任何不知道使用生成式AI平台进行法律研究就是玩火的律师都是活在云里,'斯莱德写道。
随着AI在法律领域的应用日益广泛,律师行业面临着前所未有的挑战和机遇。如何在保持法律专业性的同时,合理利用AI工具提高工作效率,将成为未来法律从业者必须面对的课题。法院已经开始制定指导方针,应对AI幻觉问题,而律师们也需要重新审视自己的职业道德和责任边界。
在技术快速发展的今天,法律专业人士既不能因循守旧拒绝新技术,也不能盲目依赖AI而忽视自己的专业判断。找到平衡点,确保法律服务的质量和公正,才是法律行业在AI时代可持续发展的关键。









