在科技日新月异的时代背景下,人工智能(AI)技术正以前所未有的速度渗透到各行各业,其中也包括执法领域。然而,伴随着AI技术在警务工作中的广泛应用,一系列关于透明度、问责制以及潜在偏见的担忧也日益凸显。近日,电子前沿基金会(EFF)发布了一项深度调查报告,直指一款名为“Draft One”的AI警务工具,该工具由Axon公司开发,旨在辅助警察撰写报告。然而,EFF的报告指出,这款工具的设计似乎存在规避审计和透明度的意图,可能为警察在法庭上作伪证提供便利,引发了社会各界的广泛关注和讨论。
Draft One的核心功能是基于执法人员随身摄像头拍摄的音频,利用ChatGPT等大型语言模型自动生成警务报告的初稿。按照设计,警察在使用该工具后,应对AI生成的报告进行编辑、修正错误、评估潜在的偏见,并补充关键的背景信息。然而,EFF的调查发现,Draft One在实际应用中存在诸多问题,其中最令人担忧的是其缺乏透明度和问责机制。
EFF的报告指出,Draft One的设计似乎有意阻碍任何形式的审计、透明度和问责。首先,并非所有部门都要求警察披露AI的使用情况。更重要的是,Draft One不会保存报告的草稿版本,也不会保留任何显示报告中哪些部分是由AI生成的记录。此外,各部门也不会保留不同版本的草稿,这使得评估AI报告的演变过程变得非常困难,公众也难以判断该技术是否可靠。EFF质疑,如果一个机构对其使用的AI技术的准确性有信心,为什么不愿意保留相关记录呢?
更令人担忧的是,由于缺乏记录,我们很难判断警察是否认真编辑了AI生成的报告,还是仅仅“反射性地盖章通过”,以尽快完成任务。Axon公司曾向至少一个警察部门透露,工程师发现了一个漏洞,该漏洞允许警察在至少三个场合绕过“护栏”,直接提交AI生成的报告,而无需事先阅读。这进一步加剧了人们对AI报告质量的担忧。
此外,EFF还指出,AI工具可能会“过度解读音频”,错误地理解俚语,或者添加从未发生过的背景信息。一个“主要担忧”是,AI报告可能为警察提供一个“烟幕弹”,使他们能够逃避因在法庭上撒谎而应承担的后果,他们可以将报告中的任何“偏见语言、不准确之处、误解或谎言”归咎于AI工具。
EFF表示:“没有任何记录显示罪魁祸首是警察还是AI。这使得评估该系统如何长期影响司法结果变得极其困难,甚至是不可能的。”根据EFF的说法,Draft One“似乎是故意设计成避免审计,而审计本可以向公众提供任何问责。”在EFF审查的一个圆桌讨论视频中,Axon公司负责生成式AI的高级首席产品经理吹捧Draft One的草稿消失功能是一大特色,他解释说:“我们不存储原始草稿,这是经过设计的,这确实是因为我们最不想做的事情是为我们的客户和我们的律师事务所制造更多的披露难题。”
EFF认为,这意味着Axon“最不想做的事情”就是让警察不得不向任何人(比如法官、辩护律师或民权非营利组织)提供这些数据。“为了服务和保护公众利益,必须持续和积极地评估AI输出,无论何时何地使用,”EFF说。“但Axon故意让这件事变得困难。”
EFF呼吁在全国范围内努力监测AI生成的警察报告,预计这些报告将在未来几年内在许多城市越来越多地部署,并发布了一份指南,以帮助记者和其他人提交记录请求,以监测其所在地区警察的使用情况。但“不幸的是,获得这些记录并不容易,”EFF的调查证实。“在许多情况下,这根本是不可能的。”
Axon发言人向Ars提供了一份声明:
Draft One 帮助警官仅根据随身摄像头录音的音频记录起草初步报告叙述,并包含一系列保障措施,包括在关键点上强制执行人工决策以及使用透明度。与非 Draft One 生成的叙述报告一样,警官对内容负全部责任。每份报告都必须经过人工警官的编辑、审查和批准,以确保准确性和问责性。Draft One 的设计旨在反映现有的警察叙述流程——长期以来,只有最终批准的报告才会被保存和发现,而不是警官或主管审查期间所做的临时编辑、添加或删除。
从第一天起,每当使用 Draft One 生成初始叙述时,其使用情况都会存储在 Axon Evidence 不可更改的数字审计跟踪中,机构可以在任何报告中检索该跟踪记录。默认情况下,每份 Draft One 报告还包括一个可自定义的免责声明,该声明可以根据机构政策显示在报告的开头或结尾。我们最近添加了机构导出 Draft One 使用情况 报告 的功能——显示每个用户生成和提交了多少份草稿——并运行关于哪些特定证据项目与 Draft One 一起使用的报告,从而进一步支持透明度和监督。Axon 致力于与警察机构、检察官、辩护律师、社区倡导者和其他利益相关者进行持续合作,以收集意见并指导 Draft One 和人工智能技术在司法系统中负责任地发展,包括随着法律的发展而进行更改。
“警察不应使用人工智能”
EFF 的高级政策分析师 Matthew Guariglia 告诉 Ars,预计 Axon 的工具可能会迅速传播——作为一项省时的附加服务,推销给已经依赖 Axon 的泰瑟枪和随身摄像头的警察部门——EFF 迅速制定了一项计划来跟踪这项新技术的采用情况。
今年春天,EFF 向数十个据信正在使用 Draft One 的警察部门发送了公开记录请求。为了起草这些请求,他们还审查了 Axon 用户手册和其他材料。
在新闻稿中,EFF 证实,调查“发现该产品提供的监督功能微乎其微”,包括一个实际上毫无用处的“审计日志”功能,这似乎与警察围绕数据保留的规范相矛盾。
也许最引人注目的是,Axon 的工具不允许部门“导出所有使用过 Draft One 的警官的列表”,甚至不允许“导出 Draft One 创建的所有报告的列表,除非该部门已自定义其流程”。相反,Axon 只允许导出显示在特定报告上采取的操作或个人用户在系统中的基本活动(如登录和上传)的基本日志。EFF 表示,这使得“即使是最基本的统计分析也很难做到:有多少警官正在使用该技术以及使用频率如何”。
EFF 发现,任何试图处理这些数字的努力都将非常耗时。在某些部门,可以查找单个警察的记录以确定他们何时使用过 Draft One,但这“可能意味着梳理数十个、数百个或在某些情况下是数千个个人用户日志”。EFF 指出,考虑到任何给定机构“生成的报告数量之多”,逐一筛选报告也需要花费“大量时间”。
在某些司法管辖区,警察必须披露何时使用人工智能来生成报告。EFF 发现,有些部门确实要求这样做,这使得这些文件更容易搜索,进而使一些警察部门更有可能在不收取过高费用或要求大量延误的情况下回应公开记录请求。但印第安纳州的至少一个部门告诉 EFF,“我们无法创建通过 Draft One 创建的报告列表。它们无法搜索。”
EFF 报告称,虽然并非每个警察都能搜索他们的 Draft One 报告,但 Axon 可以,这表明该公司可以比警察自己更好地跟踪警察使用该工具的频率。
EFF 希望其报告能够遏制人们日益依赖不可靠的 AI 生成的警察报告,Guariglia 告诉 Ars,如果没有干预,这种情况可能会在美国警务中变得更加普遍。
在加利福尼亚州,一些警察长期以来一直在使用 Draft One,目前已提出一项法案,该法案将要求披露信息,以澄清警察报告的哪些部分是 AI 生成的。如果该法律获得通过,还将“要求将创建的第一个草案保留与最终报告保留的时间相同”,Guariglia 告诉 Ars,这将使 Draft One 按照目前的设计自动变为非法。EFF 指出,犹他州正在考虑一项类似但不太有力的倡议。
Guariglia 告诉 Ars,EFF 已经与公共辩护律师进行了交谈,他们担心 AI 生成的警察报告的激增“将如何影响交叉询问”,因为它可能会在警察被指控在证人席上撒谎时给他们提供一个简单的替罪羊。
为了完全避免这个问题,华盛顿州金县的至少一个地方检察官办公室已经禁止 AI 警察报告,理由是“对市场上的一些产品存在合理的担忧”。Guariglia 告诉 Ars,地方检察官最关心的问题之一是使用 AI 工具可能会“危及案件”。EFF 现在敦促“其他检察官效仿,并要求其管辖范围内的警察不要释放这种新的、不负责任的且故意不透明的 AI 产品”。
Guariglia 说:“警察不应使用人工智能来撰写警察报告。”“关于人工智能将如何翻译情况的音频、警察是否会真正编辑这些草稿以及公众是否能够分辨出哪些是人写的哪些是计算机写的,都还有太多的问题没有得到解答。这甚至在我们开始讨论这些报告可能会给本已不公平和不透明的刑事司法系统带来哪些问题之前。”