在法律界,人工智能(AI)本应是提高效率的利器,如今却成为律师们职业诚信的试金石。随着法院系统面临"虚假AI引用"的"流行病",律师们为逃避责任而编造的各种借口层出不穷,这些不仅令人啼笑皆非,更折射出法律行业在AI时代面临的深刻信任危机。
AI虚假引用:法律系统的流行病
据法国律师兼AI研究员达米安·夏洛汀(Damien Charlotin)建立的数据库显示,自2023年虚假AI引用开始被公开报道以来,已有23名律师因AI幻觉被法院制裁。这些虚假引用不仅浪费司法资源,更严重损害了法律系统的公信力。
"使用生成式AI平台进行法律研究无异于玩火,"美国伊利诺伊州破产法官迈克尔·斯莱德(Michael B. Slade)在一份裁决书中直言不讳地指出。这一警告道出了法院系统对AI滥用的普遍担忧。
律师的荒唐借口:从无知到黑客攻击
面对AI生成的虚假案例,律师们编造的借口五花八门,但大多数都被法官一眼识破。以下是几种最常见的荒唐借口及其背后的法律伦理问题。
"我不知道我在使用AI"
这是最受欢迎的借口之一。一位加利福尼亚律师声称,他只是将Google AI概述(Google's AI Overviews)误认为是普通的搜索结果。更有甚者,一名德克萨斯州律师在被制裁前,一直将责任推给客户,直到法院不得不传唤客户作证,才发现客户在起草有问题的文件中扮演了重要角色。
"您的客户是律师吗?"法官问道。 "不,当然不是,阁下,她只是在帮我梳理案件理论,"该律师辩解道。
这种借口反映了部分律师对AI工具的惊人无知,或是对职业责任的逃避。
"我不知道AI会产生幻觉"
另一个常见辩解是声称不知道聊天机器人容易产生事实幻觉。最近,一名被制裁的俄克拉荷马州律师承认,他只是要求ChatGPT"让他的写作更有说服力",没想到会添加新的引用。而一名加利福尼亚州律师在9月因类似问题被处以高达1万美元的罚款——法官称之为"保守"的处罚。
该律师曾要求ChatGPT"增强"他的法律简报,"然后通过其他AI平台运行'增强'的简报以检查错误",却从未阅读这些"增强"后的简报。
随着法院已制定指导方针解决AI幻觉问题,这些老套借口的说服力已大打折扣。
"被黑客攻击了"
纽约市民事法院的一个案例堪称极端。律师伊诺森·奇恩威泽(Innocent Chinweze)最初承认使用微软Copilot起草有问题的文件,随后又荒谬地声称AI引用是由于其计算机上发现的恶意软件所致。
奇恩威泽表示,他创建了一个带有正确引用的草稿,但随后被黑客入侵,允许"未经授权的远程访问",从而在文件中添加了错误。
法官金蒙·C·塞莫斯(Kimon C. Thermos)对此表示怀疑,称这一借口是"难以置信且无根据的陈述",特别是没有证据表明先前草稿的存在。然而,在午休后,律师戏剧性地改变了立场,退回到"最初使用Copilot辅助研究,不知道它可能生成虚假案例"的辩解。
更令塞莫斯恼火的是,奇恩威泽在制裁听证当天提交的文件包含多个AI生成的案例摘要,法官严厉批评他"继续鲁莽地使用AI",称该文件"长达88页,结构混乱,包含引用案例的全文","显示引用案例的讨论/分析部分明显由人工智能撰写"。
"切换窗口太困难了"
阿拉巴马州的詹姆斯·A·约翰逊(James A. Johnson)律师提出了一个令人啼笑皆非的借口:在笔记本电脑上切换窗口很困难。
约翰逊解释说,他在"跨州医院照顾接受手术的家庭成员"时,因时间压力和困难个人情况,决定不使用阿拉巴马州律师协会提供的Fastcase研究工具,而是使用Microsoft Word的侧边栏自动出现的Ghostwriter Legal插件,因为"Fastcase需要通过阿拉巴马州律师协会网站在单独浏览器中访问,在笔记本电脑上用触摸板在程序之间来回切换很繁琐"。
然而,美国地区法官特里·F·穆勒(Terry F. Moorer)对此表示怀疑,因为"Ghostwriter Legal的信息明确表明它使用ChatGPT作为默认AI程序"。穆勒还指出,约翰逊似乎让AI代为完成本应由政府律师完成的工作,"为指定辩护律师提供的公共资金不是无底洞,而是有限资源"。
约翰逊的同样被他的说法吓到,当场决定解雇他,尽管这可能"导致审判显著延迟"。穆勒最终裁定约翰逊对AI的依赖"等同于恶意行为",处以5,000美元罚款。
"登录问题"
佐治亚州的一名律师声称,有时虚假AI引用可能是因为律师意外提交了草稿而非最终版本。其他律师则称,当Westlaw或LexisNexis等法律工具无法访问时,他们会求助于AI。
在爱荷华州,一名律师告诉上诉法院,在"Westlaw订阅遇到登录问题"后,她后悔依赖"次要的AI驱动研究工具"。尽管法院"对技术问题表示同情,如登录问题",但该律师仍被制裁,主要是因为她只在法院命令解释错误后才承认使用AI。然而,她可以选择支付150美元的最低罚款或参加"两小时针对AI的法律伦理培训"。
路易斯安那州的一个案例显示,一名律师在被抓住关于AI工具的谎言时,其借口更加不受欢迎。该律师声称AI幻觉来自"使用Westlaw Precision,一个AI辅助研究工具,而不是Westlaw的独立法律数据库"。结果发现,该律师将研究外包给一名"已被暂停"的律师,并"假设"该律师的错误来自Westlaw的AI工具。最终,法官在签署文件的律师"同意Westlaw没有生成虚假引用"后,下令处以1,000美元罚款。
"系列幻觉者"与法院的严厉制裁
伊利诺伊州的威廉·T·帕尼奇(William T. Panichi)律师至少被制裁过三次,Ars的审查发现。在回应7月最初的处罚时,他承认在"研究软件之间"被AI所诱惑。
法院沮丧地发现该律师自相矛盾,因此下令实施更严厉的制裁。帕尼奇"同时承认使用AI生成简报,没有进行任何独立研究,甚至表示'在这个上诉案中,我几乎没有做任何个人工作'",同时又辩称收取更高费用是合理的,因为"这个案件在花费时间方面非同寻常",他的办公室"在获取信息方面做了一些出色的工作"。
法院认为这种AI滥用如此严重,以至于帕尼奇被命令退还他收到的"6,925.62美元",外加1,000美元罚款。
"如果我有幸能够继续在上诉法院执业,我不会再这么做了,"帕尼奇在7月告诉法院,就在8月再遭两轮制裁之前。
法院对AI滥用的零容忍态度
当发现AI生成的幻觉时,罚款通常支付给法院、对方律师或两者,取决于谁的时间和资源被浪费在核对虚假案例上。
律师们似乎更倾向于反对向对方律师支付罚款,希望尽可能降低罚款。一名律师甚至辩称"在LexisNexis或Westlaw中输入引用只需7.6秒,而不是几小时",同时似乎忽略了没有花这宝贵的几秒钟检查自己的引用。
该案法官南希·米勒(Nancy Miller)明确表示,"此类陈述显示出对律师义务的惊人缺乏认识",指出"纠正错误和虚假引用的责任永远不会转移到对方律师或法院,即使他们是第一个注意到错误的人"。
"减轻此类错误造成的损害的责任仍然在于签署人,"米勒说。"此类错误被适当纠正得越早,无论是通过撤回还是修改和补充有问题的诉状,每个人浪费的时间就越少,产生的成本也越少。"
德克萨斯州美国地区法官玛丽娜·加西亚·马莫莱霍(Marina Garcia Marmolejo)也表示同意,指出确定其他法官如何应对虚假AI引用会浪费更多时间。
"在这个全国最繁忙的法院日程之一,几乎没有资源可以用来首先甄别错误的AI引用,更不用说调查这一主题不断增长的判例法了,"她说。
法律行业面临的AI伦理挑战
这些案例揭示了法律行业在AI时代面临的深刻伦理挑战。首先,律师对AI工具的认知严重不足,许多律师似乎不了解AI生成内容的风险和局限性。其次,责任逃避现象普遍,律师们宁愿编造荒唐借口也不愿承认错误。最后,法律教育体系未能跟上AI技术的发展,导致律师缺乏必要的AI素养。
法院系统正在采取多种措施应对这一挑战,包括制定明确的AI使用指南、提高罚款金额、要求律师参加AI伦理培训等。然而,这些措施能否有效遏制AI滥用,仍需时间检验。
AI在法律领域的合理应用前景
尽管问题重重,AI技术在法律领域的应用前景依然广阔。关键在于建立明确的伦理框架和使用指南,确保AI作为辅助工具而非替代品。律师应当将AI视为提高效率的工具,而非逃避责任的借口。同时,法律教育机构需要加强AI伦理教育,培养律师对AI技术的批判性思维能力。
结语:法律诚信的底线
律师们为AI虚假引用编造的荒唐借口,不仅损害了个人职业声誉,更动摇了法律行业的诚信基础。在AI技术日益普及的今天,法律专业人士必须坚守职业诚信的底线,认识到AI只是工具,真正的责任永远在于使用工具的人。法院系统通过严厉制裁传递的明确信号是:在法律领域,AI可以成为助手,但绝不能成为替罪羊。











