在科技日新月异的今天,人工智能(AI)已渗透到我们生活的方方面面,其中也包括执法领域。然而,一项最新的调查揭示了一种令人不安的趋势:AI工具在警务工作中的应用,可能正在成为逃避问责的“烟幕弹”。
电子前哨基金会(EFF)发布了一份详尽的报告,矛头直指一种名为“Draft One”的AI警务报告生成工具。该工具由Axon公司开发,利用ChatGPT的变体,通过分析执法记录仪的音频,自动生成警务报告。乍看之下,这似乎能够提高效率,减少警员的文书工作负担。然而,EFF的调查却发现,这款工具的设计存在严重的缺陷,可能会妨碍透明度和问责制的实施。
“Draft One”:效率工具还是“免责金牌”?
“Draft One”于去年夏天在科罗拉多州的一个警察部门首次亮相,随即引发了关于AI生成报告对刑事司法系统潜在负面影响的担忧。按照设计,警员应该对AI生成的报告进行编辑,纠正错误,评估偏见,并补充关键信息。然而,实际情况可能并非如此。
EFF的报告指出,“Draft One”的设计似乎旨在阻止任何形式的审计、透明度和问责。具体而言,这款工具存在以下几个主要问题:
- 缺乏强制披露机制:并非所有部门都要求警员披露AI的使用情况,这使得公众难以了解AI在警务工作中的实际应用程度。
- 不保存草稿或修改记录: “Draft One”不会保存报告的草稿,也不会记录哪些部分是由AI生成的。这意味着,我们无法追踪报告的修改过程,也无法判断警员是否对AI生成的内容进行了充分的审查。
- 版本对比困难:由于部门不会保留不同版本的草稿,因此难以评估AI报告的准确性,也无法判断AI是否在报告中添加了不实信息或歪曲了事实。
这些缺陷引发了一个重要的问题:如果一项技术旨在提高效率和准确性,为什么开发者不希望保留能够证明其价值的记录呢?
“橡胶图章”式批准:警员是否在认真审查AI报告?
EFF的报告还指出,目前我们很难判断警员是否在认真编辑AI生成的报告,还是仅仅“反射性地盖上橡胶图章,以便尽快完成任务”。Axon公司曾向至少一个警察部门承认,工程师发现了一个漏洞,允许警员在未经阅读的情况下提交AI生成的报告。这无疑加剧了人们的担忧。
此外,AI工具还可能存在“过度解读音频”的问题,例如误解俚语或添加不曾发生的情境。这些错误可能会导致报告失实,甚至对案件的走向产生不利影响。
“烟幕弹”效应:AI是否会成为谎言的庇护所?
EFF认为,AI报告最大的风险在于,它可能会给警员提供一个“烟幕弹”,让他们能够逃避因在证词中撒谎而应承担的责任。如果报告中存在偏见、不准确、误解或谎言,警员可以将责任推卸给AI工具,声称自己只是按照AI的建议行事。
“由于没有记录显示错误是由警员还是AI造成的,因此我们几乎不可能评估该系统对司法结果的长期影响。”EFF的报告写道。
Axon的回应与EFF的质疑
在EFF发布报告后,Axon公司发表声明,强调“Draft One”包含一系列保障措施,包括强制性的人工决策和使用的透明度。Axon还表示,警员对报告的内容负有全部责任,必须对报告进行编辑、审查和批准,以确保准确性和问责性。
然而,EFF对Axon的回应并不满意。EFF认为,Axon有意让公众难以监督AI在警务工作中的应用。在一个EFF审查的圆桌讨论视频中,Axon公司的一位高级产品经理甚至将“Draft One”的草稿消失功能吹捧为一个优点,称“我们不存储原始草稿,这是经过设计的,因为我们最不想做的事情是为我们的客户和律师事务所制造更多的披露难题。”
EFF认为,这意味着Axon最不希望的事情是“让警察不得不向任何人(比如法官、辩护律师或民权非营利组织)提供这些数据”。
呼吁全国范围内的监督
EFF呼吁在全国范围内对AI生成的警务报告进行监督,并发布了一份指南,帮助记者和其他人提交记录请求,以监督其所在地区警察对AI的使用情况。然而,EFF的调查证实,“不幸的是,获取这些记录并不容易。在许多情况下,这根本不可能。”
EFF的高级政策分析师Matthew Guariglia表示,如果不加以干预,AI生成的警务报告可能会在美国警察部门变得越来越普遍。他强调,必须对AI的输出进行持续和积极的评估。
立法行动与检察官的抵制
在加利福尼亚州,一项法案已被提出,要求澄清警务报告的哪些部分是由AI生成的,并要求保留第一份草稿,只要最终报告被保留。Guariglia表示,如果该法案获得通过,将使“Draft One”目前的设计自动失效。犹他州也在考虑一项类似的倡议,但力度较弱。
与此同时,华盛顿州金县的一个地方检察官办公室已经禁止使用AI警察报告,理由是“对市场上某些产品存在合理的担忧”。Guariglia表示,检察官最担心的问题之一是,使用AI工具可能会“危及案件”。EFF正在敦促“其他检察官效仿,并要求其管辖范围内的警察不要使用这种新的、不负责任的和故意不透明的AI产品”。
AI警务报告:机遇与挑战并存
人工智能在警务工作中的应用,无疑具有提高效率、减少人为错误和促进公平执法的潜力。然而,正如EFF的报告所揭示的那样,如果缺乏适当的监管和问责机制,AI也可能成为逃避责任、掩盖不当行为的工具。
在推广AI警务应用的同时,我们必须高度警惕其潜在的风险,并采取积极措施加以防范。这包括:
- 建立健全的监管框架:制定明确的法律和政策,规范AI在警务工作中的应用,确保其符合伦理道德和法律法规的要求。
- 加强透明度建设:要求警察部门公开披露AI的使用情况,并向公众提供访问AI生成报告的途径。
- 强化问责机制:建立有效的问责机制,确保警员对AI生成报告的准确性和公正性负责。
- 持续评估与改进:对AI警务工具进行持续的评估和改进,及时发现和纠正潜在的问题。
只有这样,我们才能充分利用AI的优势,同时避免其潜在的风险,确保技术真正服务于公共利益,而不是成为损害公平正义的“烟幕弹”。
其他案例分析
除了“Draft One”之外,还有其他一些AI警务工具也引发了类似的担忧。例如,人脸识别技术在执法中的应用,可能会导致对特定种族或群体的歧视。预测性警务系统,可能会加剧对贫困社区的过度巡逻。
这些案例表明,在推广AI警务应用时,我们必须进行全面的风险评估,并采取相应的防范措施。只有这样,我们才能确保技术真正服务于公共利益,而不是加剧社会不公。
数据佐证
尽管目前缺乏关于AI警务报告对司法结果影响的全面数据,但一些初步的研究表明,AI可能会对刑事司法系统产生不利影响。
例如,一项研究发现,AI生成的人脸识别结果,对有色人种的识别准确率低于白人。另一项研究发现,预测性警务系统可能会导致对贫困社区的过度巡逻,从而加剧社会不公。
这些数据表明,我们必须对AI警务应用进行谨慎评估,并采取积极措施,确保其不会对刑事司法系统产生负面影响。
结论
人工智能在警务工作中的应用,是一把双刃剑。它既有提高效率、减少人为错误的潜力,也可能成为逃避责任、掩盖不当行为的工具。为了确保技术真正服务于公共利益,我们必须建立健全的监管框架,加强透明度建设,强化问责机制,并持续评估与改进AI警务工具。只有这样,我们才能充分利用AI的优势,同时避免其潜在的风险,确保技术不会成为损害公平正义的“烟幕弹”。