在科技日新月异的今天,人工智能(AI)技术正以前所未有的速度渗透到我们生活的方方面面。尤其是在执法领域,AI的应用更是引发了广泛的关注与讨论。本文将深入探讨一款名为“Draft One”的AI警务工具,以及它所引发的关于透明度、问责制和公平正义的深刻问题。
AI警务工具的兴起与争议
近年来,随着AI技术的不断发展,越来越多的警务部门开始尝试使用AI工具来辅助日常工作。其中,由Axon公司开发的Draft One就是一款备受瞩目的AI警务工具。这款工具基于ChatGPT的变体,能够根据执法记录仪的音频自动生成警务报告。警方人员在使用后,需要对报告进行编辑、修正错误、评估潜在的偏见,并补充关键信息。
然而,Draft One自推出以来就备受争议。一方面,人们对其提高警务效率、减少文书工作负担寄予厚望;另一方面,对其可能存在的滥用风险、透明度缺失以及对公民权利的潜在威胁深感担忧。电子前哨基金会(EFF)的调查报告进一步加剧了这种担忧。该报告指出,Draft One的设计似乎旨在阻止审计、透明度和问责制的实施,这使得公众难以评估该技术的准确性和公正性。
Draft One的“烟幕”设计
EFF的调查报告揭示了Draft One存在的一系列问题,其中最令人担忧的是其“烟幕”设计。根据EFF的说法,Draft One不会保存报告的原始草稿,也不会记录报告中哪些部分是由AI生成的。这意味着,如果报告中存在偏见、不准确或虚假信息,将很难确定责任归属,也难以评估AI系统对司法结果的影响。
更令人不安的是,Axon公司的一位高级产品经理在一次圆桌讨论中表示,不存储原始草稿是“一项设计”,目的是为了避免给客户和律师事务所带来更多信息披露方面的麻烦。EFF认为,这表明Axon公司不希望警方将相关数据提供给法官、辩护律师或民权组织。
这种“烟幕”设计使得对AI警务报告的审计变得异常困难。由于缺乏透明度,公众无法了解AI系统是如何工作的、是否存在偏见,以及是否被滥用。这不仅损害了公众对执法部门的信任,也可能导致不公正的判决和冤假错案的发生。
问责制的缺失与潜在的滥用风险
除了“烟幕”设计外,Draft One还存在问责制缺失的问题。EFF指出,该工具不允许警务部门导出所有使用Draft One的警员名单,也无法导出所有由Draft One生成的报告清单。这意味着,即使警务部门想要进行内部审计,也很难追踪AI工具的使用情况,更难以评估其对警务工作的影响。
此外,Draft One还可能存在被滥用的风险。由于警方人员需要编辑AI生成的报告,他们可能会“下意识地认可这些草稿,以便尽快完成工作”。这可能会导致警方人员忽略报告中存在的错误、偏见或不准确之处,从而使AI系统的不良影响进一步扩大。
更令人担忧的是,Draft One可能会“过度解释音频”,从而歪曲事实或添加从未发生过的背景信息。如果警方人员没有仔细审查报告,这些错误信息可能会被纳入最终报告,从而对调查结果产生误导。
公民自由的潜在威胁
AI警务工具的广泛应用可能会对公民自由构成潜在威胁。由于AI系统可能会存在偏见,其生成的报告可能会对某些种族、宗教或社会群体产生歧视。此外,由于AI系统缺乏透明度,公众可能无法了解其是如何工作的,也无法对其进行有效的监督。
更令人担忧的是,AI警务工具可能会被用于大规模监控。通过分析大量的音频和视频数据,AI系统可以识别出潜在的犯罪嫌疑人,并对其进行跟踪和监视。这种大规模监控可能会侵犯公民的隐私权和自由权,并可能导致社会不公的加剧。
EFF的呼吁与行动
为了应对AI警务工具带来的挑战,EFF呼吁在全国范围内加强对AI警务报告的监控。该组织发布了一份指南,旨在帮助记者和其他人士提交记录请求,以监测警方在其辖区内使用AI的情况。然而,EFF的调查证实,“不幸的是,获取这些记录并不容易。在许多情况下,这根本是不可能的。”
EFF还呼吁检察官禁止使用AI警务报告。金县(华盛顿州)的一个地方检察官办公室已经禁止使用AI警务报告,理由是“对市场上的一些产品存在合理的担忧”。EFF敦促“其他检察官也采取同样的行动,并要求其管辖范围内的警察不要使用这种新的、不负责任的和故意不透明的AI产品。”
EFF高级政策分析师Matthew Guariglia表示,“警察不应该使用AI来撰写警察报告。关于AI将如何翻译情境音频、警察是否会真正编辑这些草稿,以及公众是否能够分辨哪些是由人写的,哪些是由电脑写的,都存在太多悬而未决的问题。甚至在我们开始讨论这些报告可能如何导致本已不公平和不透明的刑事司法系统出现问题之前,就已经存在这些问题了。”
立法监管的必要性
为了确保AI警务工具的公正、透明和负责任的使用,立法监管至关重要。加利福尼亚州已经提出一项法案,要求披露警察报告中哪些部分是由AI生成的。该法案还将“要求将创建的第一个草稿保留与最终报告一样长的时间”。EFF表示,如果该法案获得通过,Draft One目前的设计将自动变为非法。犹他州也在考虑一项类似的、但力度较弱的倡议。
立法监管可以确保AI警务工具的使用符合法律和道德规范。例如,法律可以要求警方在使用AI警务工具时必须告知当事人,并允许其查阅和更正AI生成的报告。法律还可以规定AI警务工具的使用范围和限制,以防止其被滥用。
结论与展望
AI警务工具是一把双刃剑。一方面,它可以提高警务效率、减少文书工作负担;另一方面,它也可能存在滥用风险、透明度缺失以及对公民权利的潜在威胁。为了确保AI警务工具的公正、透明和负责任的使用,我们需要加强对其的监管,并建立有效的问责机制。
未来,随着AI技术的不断发展,AI警务工具的应用将会越来越广泛。我们需要积极探索如何利用AI技术来改善警务工作,同时也要警惕其可能带来的风险,并采取有效的措施加以防范。只有这样,我们才能确保AI技术真正服务于公众利益,而不是成为损害公民权利的工具。