AI警务的“烟幕”:Draft One如何规避问责?

1

AI“烟幕”:警察最爱的AI工具自动删除使用证据

人工智能警察工具旨在避免问责,监督机构表示。

在数字化时代,人工智能(AI)正日益渗透到各个领域,执法部门也不例外。然而,一项最新的调查揭示,警察部门使用的一种名为“Draft One”的AI工具,其设计初衷似乎并非为了提升效率或改善警务工作,而是为了规避公众监督和问责。电子前沿基金会(EFF)的调查报告指出,该工具通过自动删除AI使用痕迹,为警察的不当行为提供了潜在的“烟幕”。

Draft One:AI警务的新尝试

Axon公司开发的Draft One于去年夏天在科罗拉多州的一个警察部门首次亮相。该工具利用ChatGPT的变体,根据执法记录仪的音频生成初步的警察报告。警官们随后需要编辑这些报告,纠正错误、评估偏差,并补充关键信息。然而,EFF的调查发现,Draft One的设计存在严重缺陷,使得对其进行审计、追踪和问责几乎不可能。

AI快讯

缺乏透明度:设计上的缺陷

EFF的报告指出,Draft One在使用过程中存在诸多问题。首先,并非所有部门都要求警察披露AI的使用情况。其次,Draft One不保存草稿,也不保留显示报告中哪些部分是由AI生成的记录。更重要的是,各部门不保留不同版本的草稿,使得评估AI报告的准确性和公正性变得异常困难。这些设计上的缺陷引发了人们的质疑:如果一项技术 действительно能够提高效率和准确性,为什么相关机构不愿意保留能够证明其价值的记录?

潜在的风险:谎言的“烟幕弹”

EFF的调查还揭示,警察部门可能只是“下意识地”批准AI生成的报告,而没有进行充分的编辑和审查。更令人担忧的是,Axon公司承认,其工程师发现了一个漏洞,允许警察在未阅读报告的情况下提交AI生成的报告。这意味着,AI工具可能会“过度解读”音频,错误理解俚语,或者添加从未发生过的情节。这种情况下,AI报告可能成为警察的“烟幕弹”,使他们能够逃避因在法庭上作伪证而应承担的责任。

AI快讯

Axon的回应与辩解

面对质疑,Axon公司的一位发言人表示,Draft One旨在帮助警察起草初步报告,并包含一系列保障措施,包括强制性的人工决策和透明的使用声明。该公司强调,警察对报告的内容负全部责任,每个报告都必须经过人工编辑、审查和批准。Axon还声称,Draft One的设计与现有的警察报告流程一致,即只保存最终批准的报告,而不保存中间的编辑、添加或删除记录。此外,Axon还表示,Draft One的使用情况会被记录在Axon Evidence的数字审计跟踪中,并且可以生成Draft One的使用报告,以支持透明度和监督。

EFF的呼吁:全国范围的监控与立法行动

尽管Axon公司做出了辩解,但EFF仍然坚持认为,Draft One的设计存在根本性的缺陷,使得对其进行审计和问责几乎不可能。EFF呼吁在全国范围内监控AI生成的警察报告,并发布了一份指南,帮助记者和其他人提交记录请求,以监控警察在其辖区内的使用情况。EFF还支持加利福尼亚州的一项法案,该法案将要求披露警察报告中哪些部分是由AI生成的,并要求保留所有草稿。此外,EFF还呼吁各地的检察官禁止使用AI警察报告。

案例分析:AI警务的潜在风险

为了更具体地说明AI警务可能带来的风险,让我们来看一个 hypothetical 的案例。假设一名警察使用Draft One生成了一份关于一起入室盗窃案的报告。AI工具错误地将受害者的陈述解读为“我怀疑是我的邻居”,而实际上受害者只是说“我的邻居最近行为有些奇怪”。如果警察没有仔细审查AI生成的报告,并将未经核实的怀疑写入最终报告,这可能会导致对无辜邻居的调查,甚至可能导致错误的逮捕。更糟糕的是,如果在法庭上,警察被问及为什么怀疑邻居,他可能会将责任推给AI工具,声称是AI的错误解读导致了这一怀疑。这种情况下,谁来承担责任?是警察的疏忽,还是AI的错误?

数据佐证:AI偏见的可能性

除了潜在的错误解读,AI还可能存在偏见。研究表明,AI系统可能会受到训练数据的影响,从而产生对特定群体或个人的偏见。例如,如果Draft One的训练数据主要来自对特定种族或社会经济群体的调查,那么它可能会在生成报告时对这些群体产生偏见。这种偏见可能会导致不公平的执法,例如对特定社区的过度巡逻或对特定人群的过度怀疑。

行业观察:AI警务的未来趋势

尽管存在诸多风险和挑战,但AI警务的未来趋势似乎不可避免。随着技术的不断发展,AI工具可能会变得更加准确、高效和智能化。然而,为了确保AI警务的公正性和透明度,我们需要采取积极的措施来解决潜在的问题。这包括:

  1. 加强监管:政府应该制定明确的法律和法规,规范AI在警务中的使用,确保其符合伦理标准和法律要求。
  2. 提高透明度:警察部门应该公开披露AI的使用情况,并向公众提供访问AI生成报告的途径。
  3. 加强培训:警察应该接受关于AI伦理和偏见的培训,以便能够识别和纠正AI可能产生的错误。
  4. 建立问责机制:应该建立明确的问责机制,确保警察和AI系统都对其行为负责。

结论:平衡创新与责任

AI警务代表着执法领域的一次重大创新,但同时也带来了新的风险和挑战。为了充分利用AI的潜力,同时避免潜在的危害,我们需要在创新与责任之间取得平衡。这意味着我们需要加强监管、提高透明度、加强培训,并建立问责机制,以确保AI警务的公正性和透明度。只有这样,我们才能确保AI成为执法的强大工具,而不是规避责任的“烟幕弹”。

电子前沿基金会(EFF)的调查报告为我们敲响了警钟。在追求技术进步的同时,我们必须时刻保持警惕,确保技术的使用符合伦理标准和法律要求。只有这样,我们才能确保技术的进步真正服务于公众利益,而不是成为某些人逃避责任的工具。