AI警务工具“Draft One”:警务效率提升还是“烟幕弹”?

1

在科技日新月异的今天,人工智能(AI)正以前所未有的速度渗透到我们生活的方方面面。从智能家居到自动驾驶,AI的应用无处不在,同时也引发了人们对于其潜在风险的担忧。近日,美国电子前沿基金会(EFF)发布了一项调查报告,揭露了一款名为“Draft One”的AI警务工具所存在的严重问题。这款由Axon公司开发的工具,旨在通过分析执法记录仪的音频,自动生成警察报告。然而,EFF的调查显示,该工具不仅缺乏透明度,而且其设计似乎有意规避审计和问责,这无疑给本就复杂的刑事司法系统带来了更多的不确定性。

Axon公司以生产泰瑟枪和执法记录仪而闻名,其开发的Draft One AI警务工具一经推出,便引起了广泛关注。该工具的核心功能是利用ChatGPT的变体,根据执法记录仪的音频数据自动生成警察报告。按照设计,警察在使用该工具后,需要对AI生成的报告进行编辑,修正错误,评估潜在的偏见,并补充关键的背景信息。然而,EFF的调查报告指出,Draft One在实际应用中存在诸多问题,其中最令人担忧的是其缺乏透明度和可审计性。

AI快讯

EFF的报告强调,Draft One的设计似乎旨在阻止任何形式的审计、透明度和问责。首先,并非所有部门都要求警察披露AI的使用情况。其次,Draft One不会保存草稿,也不会保留任何记录显示报告的哪些部分是由AI生成的。更令人担忧的是,各个部门不会保留不同版本的草稿,这使得公众难以评估AI报告的准确性和可靠性。EFF质疑,如果一个机构对其技术的准确性有信心,为何不保留相关记录?

这种缺乏透明度的设计,使得我们难以判断警察是否真的在认真编辑AI生成的报告,还是仅仅“反射性地批准”这些草稿,以便尽快完成任务。更令人不安的是,Axon公司承认,其工程师发现了一个漏洞,该漏洞允许警察在未经阅读的情况下提交AI生成的报告。这无疑增加了AI被滥用的风险。

除了缺乏透明度,Draft One还可能存在“过度解读音频”的问题。例如,AI可能会误解俚语,或者添加从未发生过的背景信息。EFF认为,一个“主要的担忧”是,AI报告可能会给警察提供一个“烟幕弹”,使他们能够逃避因在法庭上撒谎而应承担的后果。警察可以将报告中的任何“有偏见的语言、不准确之处、误解或谎言”归咎于AI工具。

“没有任何记录显示罪魁祸首是警察还是AI,”EFF指出,“这使得评估该系统如何长期影响司法结果变得极其困难,甚至是不可能的。”EFF认为,Draft One“似乎是故意设计成避免可能向公众提供任何问责的审计”。EFF在审查的一个圆桌讨论视频中发现,Axon公司的一位高级产品经理吹嘘Draft One的草稿消失功能是一个优点,解释说,“我们不存储原始草稿,这是经过设计的,这真的是因为我们最不想做的事情是为我们的客户和我们的律师事务所制造更多的披露难题。”

EFF对此的解读是,Axon公司“最不希望”警察“不得不向任何人(比如法官、辩护律师或公民自由非营利组织)提供这些数据”。“为了服务和保护公众利益,必须在任何时间、任何地点持续和积极地评估AI的输出,”EFF说,“但Axon公司已经故意使这变得困难。”

为了应对这一问题,EFF呼吁在全国范围内对AI生成的警察报告进行监控,并发布了一份指南,以帮助记者和其他人提交记录请求,以监控其所在地区警察的使用情况。然而,“不幸的是,获得这些记录并不容易,”EFF的调查证实,“在许多情况下,这根本是不可能的。”

Axon公司的一位发言人向Ars Technica提供了一份声明,声明中称:

Draft One帮助警察仅根据执法记录仪录音的音频记录起草初步报告叙述,并包括一系列保障措施,包括在关键点上强制执行人工决策和使用的透明度。正如非Draft One生成的叙述报告一样,警察仍然对内容负全部责任。每份报告都必须经过人工警察的编辑、审查和批准,以确Accuracy和问责制。Draft One的设计旨在镜像现有的警察叙述过程——长期以来,只有最终批准的报告才会被保存和发现,而不是在警察或主管审查期间进行的临时编辑、添加或删除。

从第一天起,每当使用Draft One生成初始叙述时,其使用情况都会存储在Axon Evidence的不可更改的数字审计跟踪中,机构可以在任何报告中检索该跟踪。默认情况下,每个Draft One报告还包括一个可定制的免责声明,该声明可以根据机构政策出现在报告的开头或结尾。我们最近添加了机构导出Draft One使用情况 报告的能力——显示每个用户生成和提交了多少草稿——并运行关于哪些特定证据项目与Draft One一起使用的报告,进一步支持透明度和监督。Axon致力于与警察机构、检察官、辩护律师、社区倡导者和其他利益相关者持续合作,以收集意见并指导Draft One和AI技术在司法系统中负责任的演变,包括随着法律的发展而进行的变更。

尽管Axon公司声称Draft One具有透明度和问责性,但EFF的调查结果却与此相悖。EFF的高级政策分析师Matthew Guariglia表示,由于Axon公司的工具可能会迅速传播,EFF迅速制定了一项计划,以跟踪这项新技术的采用情况。今年春天,EFF向数十个据信正在使用Draft One的警察部门发送了公共记录请求。为了撰写这些请求,他们还审查了Axon公司的用户手册和其他材料。

在新闻发布会上,EFF确认,调查“发现该产品提供的监督功能很少”,包括一个实际上无用的“审计日志”功能,这似乎与警察部门围绕数据保留的规范相矛盾。也许最引人注目的是,Axon公司的工具不允许各部门“导出所有使用过Draft One的警察名单”,甚至不允许“导出所有由Draft One创建的报告的列表,除非该部门定制了其流程”。相反,Axon公司只允许导出显示在特定报告上采取的操作或单个用户在系统中的基本活动(如登录和上传)的基本日志。这使得“即使是最基本的统计分析也几乎不可能进行:有多少警察正在使用这项技术,以及他们使用的频率有多高,”EFF说。

EFF发现,任何努力进行数字运算的工作都需要花费大量时间。在一些部门,可以查找单个警察的记录以确定他们何时使用了Draft One,但这“可能意味着梳理数十个、数百个,甚至在某些情况下是数千个单独的用户日志”。考虑到任何给定机构“生成的报告数量之多”,逐个报告地进行分类也需要“大量时间”,EFF指出。

在一些司法管辖区,警察需要披露何时使用AI生成报告。EFF发现,一些部门确实要求这样做,这使得这些文件更容易搜索,反过来也使得一些警察部门更有可能在不收取过高费用或要求大量延误的情况下回应公共记录请求。但印第安纳州至少有一个部门告诉EFF,“我们无法创建通过Draft One创建的报告列表。它们是不可搜索的。”

EFF报告称,虽然不是每个警察都能搜索到他们的Draft One报告,但Axon公司可以,这表明该公司可以比警察自己更好地跟踪警察使用该工具的频率。EFF希望其报告能够减少对不可靠的AI生成的警察报告的日益依赖,Guariglia告诉Ars,如果不加以干预,这种情况可能会在美国警务中变得更加普遍。

在加利福尼亚州,一些警察长期以来一直在使用Draft One,该州已经提出了一项法案,要求披露哪些部分的警察报告是由AI生成的。如果该法律获得通过,还将“要求将创建的第一个草案保留与最终报告一样长的时间,”Guariglia告诉Ars,这将使Draft One按照目前的设计自动变为非法。EFF指出,犹他州正在考虑一项类似但不太有力的倡议。

Guariglia告诉Ars,EFF已经与公共辩护律师进行了交谈,他们担心AI生成的警察报告的扩散“将如何影响交叉询问”,因为它可能会给警察在被指控在法庭上撒谎时提供一个简单的替罪羊。为了完全避免这个问题,华盛顿州金县至少有一个地方检察官办公室已经禁止使用AI警察报告,理由是“对市场上的一些产品存在合理的担忧”。Guariglia告诉Ars,地方检察官最关心的问题之一是,使用AI工具可能会“危及案件”。EFF现在敦促“其他检察官效仿,并要求他们管辖范围内的警察不要释放这种新的、不负责任的和故意不透明的AI产品”。

“警察不应该使用AI来撰写警察报告,”Guariglia说。“关于AI如何翻译情况的音频,警察是否真的会编辑这些草稿,以及公众是否能够分辨哪些是人写的,哪些是计算机写的,还有太多的问题没有得到解答。这甚至在我们开始讨论这些报告可能如何导致本已不公平和不透明的刑事司法系统出现问题之前。”

总而言之,EFF的调查报告揭示了AI警务工具Draft One所存在的诸多问题。该工具缺乏透明度、可审计性和问责性,可能会给警察提供“烟幕弹”,使他们能够逃避因在法庭上撒谎而应承担的后果。为了确保AI在警务领域的应用不会损害公众利益,我们需要加强对AI生成报告的监管,并确保其使用符合伦理和法律的要求。同时,检察官也应采取行动,禁止使用存在问题的AI警务工具,以维护刑事司法系统的公正和透明。