在科技日新月异的今天,人工智能(AI)已渗透到我们生活的方方面面,其中也包括执法领域。然而,一项由电子前沿基金会(EFF)发布的调查报告揭示了一种令人担忧的趋势:警方正在使用一种名为Axon Draft One的AI工具生成警务报告,而该工具的设计似乎旨在规避审计和透明度,这无疑给公众的监督带来了巨大的挑战。本文将深入探讨这一问题,剖析其背后的原因和潜在风险,并探讨可能的解决方案。
AI警务报告:效率与风险并存
Axon Draft One是一款基于ChatGPT变体的AI工具,旨在通过分析执法记录仪的音频,自动生成警务报告的初稿。警官随后需要编辑这些初稿,纠正错误、评估偏差并添加关键背景信息。乍一看,这似乎是一种提高效率、减轻警务人员工作负担的创新方法。然而,EFF的调查发现,该工具在设计上存在缺陷,可能使其成为逃避责任的“烟幕弹”。
难以追踪的AI足迹
EFF的报告指出,Axon Draft One的主要问题在于其缺乏透明度和可审计性。首先,并非所有部门都要求警官披露AI的使用情况。其次,该工具不会保存草稿或记录报告中哪些部分是由AI生成的。更令人担忧的是,各部门不会保留不同版本的草稿,这使得公众难以评估AI报告的准确性和公正性。正如EFF所质疑的:“为什么一个机构不希望保留能够证明该技术准确性的记录呢?”
潜在的滥用风险
缺乏透明度不仅阻碍了公众的监督,也为滥用AI警务报告创造了条件。EFF指出,由于无法追踪AI的修改记录,警官可能“反射性地批准草稿,以便尽快完成任务”。更令人担忧的是,Axon公司承认,其工程师曾发现一个漏洞,允许警官绕过“安全措施”,在未经阅读的情况下提交AI生成的报告。此外,AI工具还可能“过度解释音频”,错误理解俚语或添加从未发生过的背景信息。这些问题都可能导致报告出现偏差、不准确甚至谎言。
“烟幕弹”效应:逃避责任的工具?
EFF最主要的担忧之一是,AI报告可能成为警官逃避责任的“烟幕弹”。如果报告中出现偏颇的语言、不准确的信息、错误的解释或谎言,警官可以将责任归咎于AI工具,从而逃避因在法庭上作伪证而可能面临的后果。正如EFF所说:“没有记录显示罪魁祸首是警官还是AI。这使得评估该系统如何影响长期司法结果变得极其困难,甚至是不可能的。”
Axon的回应与质疑
针对EFF的调查结果,Axon公司发表声明称,Draft One有助于警官根据执法记录仪的音频记录起草初步报告,并包含一系列安全措施,包括关键环节的人工决策和使用透明度。Axon公司还表示,警官应对报告内容负全部责任,每份报告都必须经过人工编辑、审查和批准,以确保准确性和可信度。此外,Axon公司还强调,Draft One的设计旨在反映现有的警务报告流程,即只保存最终批准的报告,而不保存临时的编辑、添加或删除。
然而,EFF对Axon公司的回应表示质疑。EFF认为,Axon公司不存储原始草稿的决定,是为了避免给客户和律师事务所带来更多的信息披露方面的麻烦。EFF解读为,Axon公司最不希望的是警察必须向任何人(比如法官、辩护律师或民权非营利组织)提供这些数据。
呼吁全国范围内的监督
为了解决AI警务报告带来的问题,EFF呼吁在全国范围内开展监督工作,并发布了一份指南,帮助记者和其他人提交记录请求,以监督当地警察对AI的使用情况。然而,EFF的调查证实,“不幸的是,获得这些记录并不容易。在许多情况下,这根本是不可能的。”
立法与禁令:两种不同的应对方式
面对AI警务报告的潜在风险,不同的地区采取了不同的应对方式。在加利福尼亚州,一项法案已被提出,要求澄清警务报告中哪些部分是由AI生成的。如果该法案获得通过,还将要求保留第一份草稿,只要最终报告被保留。EFF认为,这将使Axon Draft One目前的设计自动失效。犹他州也在考虑一项类似的,但力度较弱的倡议。与此同时,华盛顿州金县的一个地方检察官办公室已经禁止使用AI警察报告,理由是“对市场上某些产品存在合理的担忧”。该检察官办公室担心,使用AI工具可能会“危及案件”。EFF正在敦促“其他检察官效仿,并要求其管辖范围内的警察不要使用这种新的、不负责任的、有意不透明的AI产品”。
AI警务报告的未来:透明度与责任至关重要
AI警务报告作为一种新兴技术,在提高效率的同时,也带来了诸多风险。为了确保AI在执法领域得到负责任的使用,必须解决透明度和可审计性方面的问题。以下是一些可能的解决方案:
- 强制披露AI使用情况:要求所有部门强制披露何时以及如何使用AI生成警务报告。
- 保留所有草稿和修改记录:要求保留AI生成报告的所有草稿和修改记录,以便进行审计和监督。
- 建立独立的AI监督机构:成立一个独立的机构,负责监督AI在执法领域的应用,并评估其对司法公正的影响。
- 加强对警官的培训:加强对警官的培训,使其能够识别和纠正AI生成的报告中的错误和偏差。
- 提高公众的知情权:向公众普及AI警务报告的知识,使其能够更好地监督警察的行为。
案例分析:AI警务报告的潜在风险
为了更具体地说明AI警务报告可能带来的风险,以下是一些假设的案例:
- 案例一: 一名警官使用AI生成的报告逮捕了一名无辜者,但由于无法追踪AI的修改记录,该警官声称报告是AI生成的,自己对此不知情。
- 案例二: 一名警官使用AI生成的报告隐瞒了自己的不当行为,但由于无法访问原始草稿,辩护律师无法证明该警官篡改了报告。
- 案例三: AI生成的报告包含偏颇的语言,导致陪审团对被告产生偏见,但由于无法评估AI的偏差,被告无法获得公正的审判。
数据佐证:AI警务报告的实际影响
目前,关于AI警务报告的实际影响的数据仍然有限。然而,一些初步的研究表明,AI可能会加剧现有的种族和社会不平等。例如,一项研究发现,AI在识别黑人面孔时的准确率低于白人面孔,这可能会导致AI生成的报告对黑人产生偏见。此外,AI还可能受到训练数据的影响,从而复制和放大现有的社会偏见。
结论:在AI警务报告的道路上谨慎前行
AI警务报告是一把双刃剑。在提高效率的同时,它也可能带来透明度、责任和公正性方面的问题。为了确保AI在执法领域得到负责任的使用,我们必须采取积极的措施,解决这些问题。只有这样,我们才能充分利用AI的潜力,同时最大限度地减少其潜在的风险。
总而言之,Axon Draft One等AI警务工具的出现,确实为执法部门带来了效率提升的可能性。然而,正如EFF的报告所揭示的,这种效率的提升是以牺牲透明度和可审计性为代价的。为了确保AI在执法领域的应用不会损害司法公正,我们需要采取积极的措施,加强对AI的监督和管理。这不仅需要立法机构的介入,也需要执法部门、技术公司和公众的共同努力。只有这样,我们才能在拥抱技术进步的同时,维护我们珍视的公平和正义。