在法律界,人工智能技术正以前所未有的速度改变着律师们的工作方式。然而,随着AI工具在法律研究中的应用日益广泛,一个令人担忧的现象正在蔓延:律师们使用AI生成虚假案例引用,并在被发现后编造各种离奇借口试图逃避责任。这种现象已经引起了司法系统的高度关注,多位法官将其描述为一场"流行病",正在严重威胁司法系统的诚信和效率。
AI虚假引用:一场正在蔓延的"流行病"
法国律师兼AI研究员达米安·夏洛汀(Damien Charlotin)建立了一个数据库,记录了律师因AI幻觉而被制裁的案例。根据Ars技术评论对该数据库中23起案例的审查,虚假AI生成的案例引用已经成为困扰法院系统的严重问题。
这些虚假引用不仅浪费了法院和对方当事人的时间与资源,更重要的是,它们动摇了法律系统的根基——事实与真实性。当法官们发现律师提交的文件中包含不存在的案例或被篡改的法律依据时,他们对整个法律行业的信任都会受到冲击。
律师的"借口库":从无知到黑客攻击
面对AI生成的虚假引用,律师们开发了一套"借口库",试图减轻或逃避制裁。然而,大多数法官对这些借口表示怀疑,甚至直接驳回。
"我不知道AI被使用"
自2023年虚假AI引用开始被公开报道以来,最受欢迎的借口是"我不知道AI被用来起草文件"。加利福尼亚的一位律师声称,他被Google的AI摘要功能"欺骗",误以为这些是普通的Google搜索结果。更常见的情况是,律师们将责任归咎于下属,有时甚至指责客户。
本月,一位德克萨斯州的律师在推卸责任过多后受到制裁,法院最终不得不传唤其客户作证,因为该律师后来承认客户在起草异常文件中发挥了重要作用。
"AI不会产生幻觉"
另一个常见的借口是律师假装不知道聊天机器人容易产生事实幻觉。最近的案例表明,这个借口正在演变成变种。上个月,一位被制裁的俄克拉荷马州律师承认,他只要求ChatGPT"让他的写作更有说服力",并不期望它会添加新的引用。9月,一位加利福尼亚州的律师陷入了类似的困境——被处以高达10,000美元的罚款,法官称这一罚款"保守"。该律师要求ChatGPT"增强"他的简报,然后通过其他AI平台运行"增强"的简报以检查错误,却从不阅读这些"增强"的简报。
如今,这些老套的借口在已经制定指导方针处理AI幻觉的法院中几乎没有分量。但正如法院所恳求的,几位律师似乎变得绝望,而不是迅速承认自己的失误。
"我被黑客攻击了"
在怀疑时,指责黑客?
对于极端案例,请看纽约市民事法院,那里的一位律师Innocent Chinweze最初承认使用Microsoft Copilot起草了一份错误的文件,然后奇怪地转向声称AI引用是由于在其计算机上发现的恶意软件。
Chinweze说他创建了一份带有正确引用的草稿,但随后被黑客入侵,允许"未经授权的远程访问"的坏人在他的文件中添加错误。
法官对此表示怀疑,将这一描述为"令人难以置信且毫无根据的陈述",特别是因为没有证据表明先前存在的草稿。相反,Chinweze要求请专家作证证明黑客攻击确实发生,请求在法院权衡专家分析之前结束制裁程序。
然而,法官Kimon C. Thermos不必权衡这一论点,因为在法院午餐休息后,律师再次"戏剧性地"改变了立场。
"他不再希望就恶意软件或未经授权访问他的计算机推迟专家作证,"Thermos在发布制裁的命令中写道。他"退回到"最初的立场,即他使用Copilot辅助研究,没有意识到它可能生成虚假案例。
尽管如此,Thermos比律师奇怪的恶意软件论点更感到恼火的是Chinweze在制裁听证当天提交的一份文件。法官注意到,该文件包含多个以以下文本开头的摘要:
案例元数据和案例摘要是在AI的帮助下编写的,AI可能产生不准确的内容。在依赖它进行法律研究目的之前,您应该阅读完整的案例。
Thermos谴责Chinweze继续鲁莽地使用AI。他严厉批评该文件是"一份88页的不连贯文档,没有结构,包含所引用案例的大部分全文",并且"显示所引用案例的讨论/分析部分明显是由人工智能编写的迹象"。
最终,Thermos命令Chinweze支付1,000美元,这是Ars审查的案例中律师收到的最典型罚款。然后,法官采取了额外的非金钱制裁措施,将这位律师转交给投诉委员会,"鉴于他的不当行为是严重的,并且严重涉及他的诚实、可靠性和从事法律实践的资格"。
"在笔记本电脑上切换窗口很难"
在阿拉巴马州,一位名叫James A. Johnson的律师犯了一个"令人尴尬的错误",美国地方法官Terry F. Moorer在10月的制裁命令中指出,这主要是因为在笔记本电脑上切换窗口很困难。
Johnson解释说他不小心使用了一个他不知道可能产生幻觉的AI工具。这发生在他"在外州医院照顾正在从手术中恢复的家人成员"时。他说,他匆忙起草文件,因为他收到了通知,他的客户的会议突然"在法院日程上提前"。
"在时间压力和困难个人情况下,"Johnson解释说,他决定不使用阿拉巴马州律师协会提供的Fastcase研究工具来研究文件。在他的笔记本电脑上工作,他选择使用"一个名为Ghostwriter Legal的Microsoft Word插件",因为"它自动出现在Word的侧边栏,而Fastcase需要通过阿拉巴马州律师协会网站打开单独的浏览器才能访问"。
对Johnson来说,"用触摸垫在笔记本电脑上的程序之间来回切换似乎很繁琐",这意味着他"不幸地成为了一个开放可用的新程序的诱惑的受害者"。
Moorer似乎对Johnson声称他理解像ChatGPT这样的工具不可靠,但不期望其他AI法律工具也是如此的说法感到不以为然——特别是因为"Ghostwriter Legal的信息明确表明它使用ChatGPT作为其默认AI程序",Moorer写道。
律师的客户同样感到反感,决定当场解雇Johnson,尽管这可能导致"审判的显著延迟"。Moorer注意到Johnson似乎对他的客户突然的决定感到震惊,表现为"他震惊、沮丧和情绪化的表情"。
而更换新律师可能会消耗更多资金。Moorer进一步指出,Johnson似乎让AI代表政府做他的工作。但正如法官所指出的,"为指定律师提供的公共资金不是无底洞,而是有限资源"。
"很明显,基本的谴责和小额罚款不足以阻止这种不当行为,因为如果是这样,我们就不会在这里了,"Moorer总结道。
裁定Johnson对AI的依赖"相当于恶意",Moorer处以5,000美元罚款。法官本会"考虑潜在的取消资格,但这变得毫无意义",因为Johnson的客户已经解雇了他。
被要求发表评论,Johnson告诉Ars,"法院对事实的发现明显错误,制裁正在上诉中"。
"被登录问题困扰"
正如一位佐治亚州律师所说,有时虚假AI引用可能被提交是因为律师意外提交了草稿而不是最终版本。
其他律师声称,当他们无法访问Westlaw或LexisNexis等法律工具时,他们会按需求助于AI。
例如,在爱荷华州,一位律师告诉上诉法院,她在经历"Westlaw订阅的登录问题"后,后悔依赖"次要的AI驱动的研究工具"。尽管法院"对技术问题表示同情,如登录问题",但该律师受到制裁,主要是因为只有在法院命令她解释错误后,她才承认使用AI。然而,在她的案例中,她可以选择支付150美元的最低罚款或参加"两小时针对AI的法律伦理培训"。
一位律师被发现对指责其不准确性的AI工具撒谎,路易斯安那州的案例表明,法院对此不那么同情。在该案例中,一位法官在律师声称AI幻觉来自"使用Westlaw Precision,一个AI辅助的研究工具,而不是Westlaw的独立法律数据库"后,要求查看研究历史。
事实证明,该律师外包了研究,依赖一个"已被暂停"的律师的AI引用,并且只是"假设"该律师的错误来自Westlaw的AI工具。暂停律师实际使用的工具尚不清楚,他可能失去了Westlaw的登录权限,但法官在签署文件的律师"同意Westlaw没有生成伪造的引用"后,下令处以1,000美元罚款。
"反复出现幻觉者"
另一位律师伊利诺伊州的William T. Panichi,Ars的审查发现,他至少被制裁了三次。
针对7月下达的初步处罚,他承认在"研究软件之间转换"时被AI所吸引。
在该案例中,法院沮丧地发现该律师自相矛盾,并因此下令实施更严厉的制裁。
Panichi "同时承认使用AI生成简报,没有进行任何自己的独立研究,甚至承认他'在这个上诉中几乎没有做任何个人工作',"法院命令说,同时辩护收取更高费用—— supposedly因为这个案例在花费时间方面"非同寻常",他的办公室"在获取信息方面做了一些出色的工作"。
法院认为这种AI滥用如此严重,以至于Panichi被要求退还他收到的"6,925.62美元的付款",外加1,000美元罚款。
"如果我有幸能够继续在上诉法院执业,我不会再这么做了,"Panichi在7月告诉法院,就在8月又遭到两轮制裁之前。
Panichi没有立即回复Ars的评论请求。
当发现AI生成的幻觉时,罚款通常支付给法院、对方律师或两者,具体取决于谁的时间和资源被浪费在核对虚假案例上。
律师似乎更倾向于反对向对方律师支付罚款,希望将罚款保持在尽可能低的水平。一位律师甚至辩称,"在LexisNexis或Westlaw中输入引用只需要7.6秒,而不是几个小时",同时似乎忽略了没有花这些宝贵的时间检查自己的引用这一事实。
该案法官Nancy Miller明确表示,"此类陈述显示了律师义务令人震惊的无知",指出"纠正错误和虚假引用的责任永远不会转移到对方律师或法院,即使他们是第一个注意到错误的人"。
"减轻此类错误造成的损害的责任仍然在于签署者,"Miller说。"越早正确纠正这些错误,无论是通过撤回还是修改和补充有问题的申诉,涉及每个人的浪费时间就越少,产生的成本也越少。"
德克萨斯州联邦地方法官Marina Garcia Marmolejo表示同意,指出确定其他法官如何应对虚假AI生成的引用会浪费更多时间。
"在这个国家最繁忙的法院日程之一,几乎没有资源可以首先找出错误的AI引用,更不用说调查这个主题不断增长的判例法了,"她说。
至少佛罗里达州一家法院"震惊,震惊"地发现一位律师在滥用AI后拒绝支付对方律师所说的欠款。该案律师James Martin Paul要求支付所欠费用和成本的四分之一以下,辩称夏洛汀的数据库显示,他可能 otherwise 欠下"迄今为止因使用AI生成案例法而支付的最大罚款"。
但佛罗里达州法院发现,"屈从于Paul的论点只会使反复出现幻觉者受益"。最终,Paul因法院所称的"比数据库中其他被冒犯者严重得多的"行为而被制裁超过85,000美元,谴责他"重复的、虐待性的、恶意的行为,不能被视为合法的法律实践,必须被制止"。
Paul没有立即回复Ars的评论请求。
司法系统的反击:严厉制裁与行业警示
面对日益严重的AI滥用问题,司法系统正在采取越来越严厉的措施。多位法官明确表示,对律师使用AI生成虚假引用的行为已经失去了耐心。
伊利诺伊州美国破产法官Michael B. Slade似乎已经停止权衡借口,呼吁所有律师停止使用给法院带来负担的AI捷径。
"坦率地说,到这个时候,任何不知道使用生成AI平台进行法律研究是在玩火的律师都是生活在云里,"Slade写道。
法院的严厉态度不仅体现在经济制裁上,还包括职业声誉的损害。多位法官在制裁命令中明确指出,律师的行为已经严重损害了其诚实性、可靠性和从事法律实践的资格。
法律行业的反思:拥抱技术与维护诚信的平衡
AI虚假引用案例的激增引发了法律行业对技术伦理的深刻反思。一方面,AI工具确实能够提高法律研究的效率和覆盖面;另一方面,它们也带来了真实性、责任和职业操守方面的挑战。
法律专业人士需要在拥抱技术创新与维护行业核心价值之间找到平衡点。这要求律师不仅掌握AI技术的使用方法,更要理解其局限性,并建立适当的质量控制机制,确保法律研究的准确性和可靠性。
同时,法律教育和培训也需要与时俱进,将AI伦理、技术责任和数字素养纳入核心课程,培养新一代法律专业人士在技术环境中的职业判断力和责任感。
结论:AI时代的法律职业新标准
律师AI虚假引用案例的增多,不仅是技术问题,更是职业伦理问题。随着AI技术在法律领域的深入应用,法律行业需要建立新的标准和规范,以确保技术创新不会以牺牲法律的核心价值——真实、公正和诚信——为代价。
法院系统已经表明了对这类行为的零容忍态度,通过严厉的经济制裁和职业声誉惩罚,向整个行业发出了明确的信号:在AI时代,法律专业人士的责任不仅包括正确使用技术,更包括维护法律系统的公信力和完整性。
未来,法律行业需要共同努力,制定明确的AI使用指南,建立有效的质量控制系统,并通过持续的教育和培训,确保律师在享受AI带来便利的同时,不忘法律职业的根本使命——追求正义和维护法治。

延伸思考:AI与法律职业的未来
随着AI技术的不断发展,法律行业将面临更多机遇和挑战。一方面,AI可以自动化大量重复性工作,让律师更专注于策略思考和价值创造;另一方面,它也可能改变法律服务的提供方式和律师角色的本质。
在这个转型过程中,法律专业人士需要保持开放的心态,积极学习新技术,同时坚守职业伦理的核心原则。只有这样,才能确保AI技术真正成为法律行业的助力,而非威胁,最终实现技术进步与职业价值的和谐统一。
法院系统已经开始行动,通过严厉制裁和明确指导,为AI时代的法律实践划定底线。法律教育机构、律师协会和法律科技公司也需要跟上这一步伐,共同构建一个既拥抱创新又坚守诚信的法律生态系统。











