人工智能“烟幕弹”:AI工具成逃避问责的新手段?
近日,电子前哨基金会(EFF)发布了一项深入调查,矛头直指一种名为“Draft One”的人工智能警务工具。该工具由Axon公司开发,旨在辅助警察生成报告。然而,EFF的调查指出,Draft One在设计上存在缺陷,可能成为警察逃避监督和问责的“烟幕弹”。
Draft One:效率工具还是“谎言加速器”?
Draft One于去年夏天在科罗拉多州的一个警察部门首次亮相,其核心功能是利用ChatGPT的变体,根据执法记录仪的音频生成初步的警察报告。按照设计,警察需要对这些AI生成的报告进行编辑,纠正错误、评估偏见并补充关键信息。然而,EFF的调查揭示,该工具的实际运行方式远非如此理想。
EFF的报告称,Draft One“似乎旨在阻碍任何形式的审计、透明度和问责制”。具体而言,该工具存在以下几个关键问题:
- 缺乏使用披露: 并非所有部门都要求警察披露AI的使用情况,这使得追踪AI在警务工作中的应用变得困难。
- 草稿不保存: Draft One不会保存报告的草稿版本,也不会保留显示报告哪些部分由AI生成的信息。这意味着无法对比不同版本的报告,以评估AI的准确性和潜在偏差。
- 版本控制缺失: 各部门通常不保留不同版本的草稿,使得公众难以判断AI生成的报告是否可靠,也无法确定技术本身是否存在问题。
EFF质疑道:“如果一个机构对技术的准确性有信心,为什么不保留相关记录呢?”
潜在风险:误导、偏见与问责缺失
EFF的调查引发了人们对Draft One潜在风险的担忧。其中一个关键问题是,警察是否会认真编辑AI生成的报告,还是会“机械地批准草稿,以便尽快完成工作”?考虑到Axon公司曾向至少一个警察部门承认,工程师发现了一个漏洞,允许警察在未经阅读的情况下提交AI生成的报告,这种担忧并非没有根据。
更令人担忧的是,AI工具可能会“过度解释音频”,错误理解俚语或添加实际上并未发生的情节。这将导致报告中出现不准确的信息,甚至可能歪曲事实。
EFF认为,AI报告可能成为警察的“烟幕弹”,使他们能够逃避在法庭上作伪证的责任。如果报告中存在“有偏见的语言、不准确之处、误解或谎言”,警察可以将责任归咎于AI工具。
“没有记录显示罪魁祸首是警察还是AI,”EFF指出,“这使得评估该系统如何长期影响司法结果变得极其困难,甚至是不可能的。”
Axon的回应与EFF的质疑
Axon公司在一份声明中表示,Draft One旨在帮助警察起草初步报告,并包含一系列保障措施,包括强制性的人工决策和使用透明度。该公司强调,警察对报告的内容负有全部责任,并且每个报告都必须经过人工编辑、审查和批准。
Axon还声称,Draft One的使用情况会被存储在Axon Evidence的数字审计跟踪中,并且该工具还提供可定制的免责声明和使用情况报告,以支持透明度和监督。
然而,EFF对Axon的回应表示怀疑。EFF认为,Axon似乎更关心避免“披露难题”,而不是确保AI的透明度和问责制。EFF指出,Axon的一位高级产品经理曾表示,不存储原始草稿是“有意为之”,因为“我们最不想做的事情是给我们的客户和律师事务所制造更多的披露难题。”
EFF解读称,Axon最不希望的是警察不得不向法官、辩护律师或公民自由非营利组织提供相关数据。
呼吁全国范围的监督与改革
为了应对AI警务工具带来的潜在风险,EFF呼吁在全国范围内加强对AI生成警察报告的监督。该组织发布了一份指南,旨在帮助记者和其他人士提交记录请求,以监测其所在地区警察对AI的使用情况。
然而,EFF承认,获取这些记录并非易事。在许多情况下,这根本是不可能的。
EFF的高级政策分析师Matthew Guariglia表示,如果不加以干预,AI生成的警察报告可能会在美国警务工作中变得更加普遍。他强调,现在有必要采取行动,以确保AI技术不会被滥用,并维护刑事司法系统的公平和透明。
案例分析与数据佐证
为了更深入地了解AI警务工具的潜在影响,我们可以参考一些实际案例。例如,在加利福尼亚州,一些警察部门长期以来一直在使用Draft One。一项拟议的法案将要求披露警察报告中哪些部分由AI生成,并要求保留第一个草稿,这将在很大程度上限制了Draft One的使用。
此外,金县(华盛顿州)的一个地方检察官办公室已经禁止使用AI警察报告,理由是“对市场上某些产品存在合理的担忧”。该办公室担心,使用AI工具可能会“危及案件”。
这些案例表明,人们对AI警务工具的担忧并非空穴来风。为了确保AI技术在警务工作中的应用符合公共利益,我们需要对其进行严格的监管和监督。
行业白皮书视角:AI警务的挑战与机遇
从行业白皮书的角度来看,AI警务既带来了机遇,也带来了挑战。一方面,AI技术可以提高警察的工作效率,减少文书工作负担,并帮助他们更好地分析犯罪数据。另一方面,AI技术也可能加剧现有的偏见,导致不公平的执法行为,并侵犯公民的隐私权。
为了最大限度地发挥AI警务的潜力,同时最大限度地减少其风险,我们需要采取一种平衡的方法。这包括:
- 制定明确的法律和政策,规范AI在警务工作中的使用。
- 确保AI系统的透明度和可解释性。
- 对警察进行充分的培训,使他们能够正确使用AI工具,并识别和纠正AI可能产生的错误。
- 建立独立的监督机制,以监测AI系统的运行情况,并调查任何滥用行为。
只有这样,我们才能确保AI技术真正服务于公共利益,而不是成为逃避问责的新手段。
各方观点:辩护律师、检察官与技术专家
EFF的报告还引用了辩护律师的担忧,他们担心AI生成的警察报告可能会影响交叉询问,因为警察可能会将责任归咎于AI工具,从而逃避作伪证的指控。
另一方面,一些检察官也对AI警务工具持谨慎态度。金县地方检察官办公室的禁令表明,他们担心AI技术可能会危及案件,并损害司法公正。
技术专家也对AI警务工具的潜在风险提出了警告。他们强调,AI系统可能会存在偏见,并且可能会被用于监视和控制公民。
立法行动:加州与犹他州的尝试
为了应对AI警务工具带来的挑战,一些州已经开始采取立法行动。在加利福尼亚州,一项拟议的法案将要求披露警察报告中哪些部分由AI生成,并要求保留第一个草稿。在犹他州,一项类似的倡议正在考虑中,但其力度较弱。
这些立法行动表明,人们越来越意识到AI警务工具的潜在风险,并正在努力制定相应的法律和政策。
结论:AI警务需要透明、问责与监督
总而言之,AI警务是一项具有巨大潜力的技术,但也存在严重的风险。为了确保AI技术真正服务于公共利益,我们需要对其进行严格的监管和监督。这包括制定明确的法律和政策,确保AI系统的透明度和可解释性,对警察进行充分的培训,并建立独立的监督机制。
只有这样,我们才能防止AI警务成为逃避问责的新手段,并确保我们的刑事司法系统保持公平和公正。