警务AI“烟幕弹”:Axon工具如何规避责任与透明度危机?

1

AI“烟幕弹”:警务人工智能工具的伦理困境与透明度危机

在科技飞速发展的今天,人工智能(AI)正以前所未有的速度渗透到各行各业,其中也包括执法领域。然而,当AI被引入警务工作时,一系列伦理、透明度和问责制问题也随之浮出水面。近期,一款名为Axon Draft One的AI警务工具引起了广泛关注,它不仅因其能够自动生成警务报告而备受争议,更因其“自动删除证据”的设计而引发了关于规避责任的担忧。

AI警务工具:效率提升背后的隐忧

Axon Draft One于去年夏天首次在科罗拉多州的一个警察部门亮相,该工具利用ChatGPT的变体,通过分析执法人员随身摄像头记录的音频来自动生成警务报告。按照设计,警察需要对AI生成的报告进行编辑,纠正错误、评估偏见并补充关键信息。理想情况下,这可以极大地提高警察的工作效率,使他们能够将更多时间投入到实际的巡逻和社区服务中。

然而,电子前沿基金会(EFF)的调查报告指出,Axon Draft One的设计似乎旨在阻止任何形式的审计、透明度和问责制。该工具在设计上存在固有的缺陷,使得公众难以监督和评估其性能,这为警察在宣誓后撒谎提供了潜在的便利。

AI快讯

透明度缺失:问责制的巨大挑战

EFF的调查发现,Draft One不会保存报告草稿,也不会保留显示报告哪些部分是由AI生成的记录。更令人担忧的是,各部门通常不会保留不同版本的草稿,这使得评估AI报告的版本差异变得异常困难。这种信息缺失使得公众难以判断该技术的准确性和可靠性。正如EFF所质疑的那样:“为什么一个机构不希望维护一份能够证明技术准确性的记录呢?”

这种缺乏透明度的设计引发了人们对警察是否会认真编辑AI生成的报告的担忧。EFF指出,目前很难确定警察是在编辑报告还是“下意识地对草稿进行橡皮图章式的批准,以便尽快完成任务”。更令人不安的是,Axon公司曾向至少一个警察部门透露,工程师发现了一个漏洞,该漏洞允许警官在至少三个场合绕过“安全措施”,在未阅读的情况下提交AI生成的报告。

AI的“烟幕弹”效应:责任归属的模糊化

除了透明度问题,AI工具还可能“过度解释音频”,错误地理解俚语或添加从未发生过的背景信息。更严重的是,AI报告可能成为警察的“烟幕弹”,使他们能够逃避因在报告中出现“有偏见的语言、不准确之处、错误解释或谎言”而应承担的责任。在这种情况下,很难确定错误的根源是警察还是AI,这使得评估该系统对司法结果的影响变得极其困难。

EFF认为,Draft One“似乎是故意设计成规避审计的,而这些审计本可以为公众提供问责制”。在一个EFF审查的圆桌讨论视频中,Axon公司负责生成式AI的高级首席产品经理吹嘘Draft One的消失草稿是一个功能,并解释说,“我们不存储原始草稿,这是经过设计的,这实际上是因为我们最不想做的事情是为我们的客户和我们的律师事务所制造更多的披露难题。”EFF认为,这意味着Axon最不希望的是警察必须向任何人(例如,法官、辩护律师或民权非营利组织)提供这些数据。

应对策略:呼吁全国范围的监督与记录请求

为了应对这一问题,EFF呼吁在全国范围内对AI生成的警察报告进行监控,并发布了一份指南,以帮助记者和其他人提交记录请求,以监控其所在地区警察的使用情况。然而,EFF的调查证实,“不幸的是,获得这些记录并不容易”,在许多情况下,这根本是不可能的。

Axon公司的一位发言人向Ars Technica提供了一份声明,声明中提到:

Draft One可以帮助警官仅根据随身摄像头录音的音频记录来起草初步报告,并包含一系列安全措施,包括关键时刻的强制性人工决策和对其使用的透明度。与非Draft One生成的叙述性报告一样,警官仍然对内容负全部责任。每份报告都必须经过人工警官的编辑、审查和批准,以确保准确性和问责制。Draft One的设计旨在反映现有的警察叙述流程——长期以来,只有最终批准的报告才会被保存和发现,而不是警官或主管审查期间的临时编辑、添加或删除。 自始至终,只要使用Draft One生成初始叙述,其使用情况就会存储在Axon Evidence的不可更改的数字审计跟踪中,机构可以在任何报告中检索该跟踪。默认情况下,每份Draft One报告还包括一个可自定义的免责声明,该声明可以根据机构政策出现在报告的开头或结尾。我们最近增加了机构导出Draft One使用情况报告的能力——显示每个用户生成和提交了多少份草稿——以及运行报告以确定哪些特定证据项目与Draft One一起使用,从而进一步支持透明度和监督。Axon致力于与警察机构、检察官、辩护律师、社区倡导者和其他利益相关者持续合作,以收集意见并指导Draft One和AI技术在司法系统中负责任地发展,包括随着法律的发展而进行变更。

“警察不应该使用AI”:对AI警务的根本质疑

EFF高级政策分析师Matthew Guariglia表示,由于预计Axon的工具可能会迅速普及,EFF迅速制定了一项跟踪新技术采用情况的计划。今年春天,EFF向数十个被认为正在使用Draft One的警察部门发送了公共记录请求。为了起草这些请求,他们还审查了Axon用户手册和其他材料。

在新闻发布会上,EFF证实,调查“发现该产品提供的监督功能很少”,包括一个实际上无用的“审计日志”功能,这似乎与警察部门围绕数据保留的规范相矛盾。最明显的是,Axon的工具不允许各部门“导出使用过Draft One的所有警官的名单”,甚至不允许“导出由Draft One创建的所有报告的名单,除非该部门已自定义其流程”。相反,Axon只允许导出显示在特定报告上采取的操作或单个用户在系统中的基本活动(如登录和上传)的基本日志。这使得“即使是最基本的统计分析(有多少警官正在使用该技术以及使用频率)也几乎不可能进行”,EFF指出。

EFF发现,任何进行数字分析的努力都将非常耗时。在某些部门,可以查找单个警察的记录以确定他们何时使用了Draft One,但这“可能意味着梳理数十个、数百个或在某些情况下数千个单独的用户日志”。考虑到任何给定机构“生成的报告数量之多”,逐个筛选报告也需要花费同样“大量的时间”。

在某些司法管辖区,警察必须披露何时使用AI生成报告。EFF发现,一些部门要求这样做,这使得这些文件更容易搜索,反过来也使一些警察部门更有可能在不收取过高费用或要求大量延误的情况下回应公共记录请求。但印第安纳州的一个部门告诉EFF,“我们无法创建通过Draft One创建的报告列表。它们是无法搜索的。”

EFF报告称,虽然并非每位警察都能搜索其Draft One报告,但Axon可以,这表明该公司可以比警察自己更好地跟踪警察使用该工具的程度。

寻求变革:立法与检察官的抵制

EFF希望其报告能够遏制对不靠谱的AI生成警察报告日益增长的依赖,Guariglia告诉Ars,如果没有干预,这种情况可能会在美国警务中变得更加普遍。在加利福尼亚州,一些警察长期以来一直在使用Draft One,该州已提出一项法案,要求披露哪些部分的警察报告是由AI生成的。如果该法律获得通过,还将“要求将创建的第一个草案保留与最终报告一样长的时间”,Guariglia告诉Ars,这将使Draft One按目前的设计自动变为非法。EFF指出,犹他州正在权衡一项类似但不太强硬的倡议。

Guariglia告诉Ars,EFF已经与公共辩护律师进行了交谈,他们担心AI生成的警察报告的激增将如何“影响交叉询问”,因为它可能会让警察在被指控在证人席上撒谎时有一个简单的替罪羊。

为了完全避免这个问题,华盛顿州金县的至少一个地方检察官办公室已经禁止使用AI警察报告,理由是“对市场上某些产品存在合理的担忧”。Guariglia告诉Ars,地区检察官最关心的问题之一是,使用AI工具可能会“危及案件”。EFF现在敦促“其他检察官效仿,并要求其管辖范围内的警察不要发布这种新的、不负责任的且故意不透明的AI产品”。

Guariglia说:“警察不应该使用AI来撰写警察报告。关于AI将如何翻译情况的音频、警察是否会真正编辑这些草稿以及公众是否能够分辨哪些是人写的哪些是计算机写的,还有太多的问题没有得到解答。这甚至还没有涉及到这些报告可能会给本已不公平和不透明的刑事司法系统带来哪些问题。”

结论:在警务中应用AI需要谨慎与监督

AI在警务领域的应用无疑具有巨大的潜力,可以提高效率、降低成本并改善执法效果。然而,正如Axon Draft One案例所揭示的那样,如果不加以适当的监管和制衡,AI也可能成为规避责任、掩盖真相和侵犯公民权利的工具。为了确保AI在警务领域得到负责任和合乎伦理的应用,我们需要在透明度、问责制和公平性之间找到一个平衡点。这需要立法机构、执法部门、技术公司和公众的共同努力,以制定明确的规则和标准,并建立有效的监督机制。

只有这样,我们才能确保AI真正成为维护公共安全和社会正义的强大盟友,而不是威胁它们的潜在风险。