AI“烟幕弹”:警察AI工具自动删除使用证据,如何保障执法透明?

1

在科技日新月异的今天,人工智能(AI)正以前所未有的速度渗透到我们生活的方方面面。然而,伴随着AI技术的广泛应用,一些潜在的风险和伦理问题也逐渐浮出水面。最近,美国电子前沿基金会(EFF)发布了一份关于AI生成警察报告的调查报告,揭示了一种名为“Draft One”的AI工具可能存在的滥用风险,引发了人们对于AI在执法领域应用的深思。

Draft One是由Axon公司开发的一款AI工具,旨在通过分析执法记录仪的音频数据,自动生成警察报告的初稿。这款工具一经推出,便受到了许多警察部门的欢迎,因为它 promise 能够大幅提升报告撰写的效率,减轻警员的工作负担。然而,EFF的调查却发现,Draft One在设计上存在一些缺陷,可能会导致其被滥用,甚至成为警察掩盖真相、逃避责任的“烟幕弹”。

AI快讯

Draft One的“烟幕”设计

EFF的调查报告指出,Draft One的最大问题在于其缺乏透明度和可审计性。这款AI工具在设计上似乎有意规避外部审查,使得人们难以追踪AI在报告生成过程中的作用,也难以判断报告的真实性和准确性。具体来说,Draft One存在以下几个方面的缺陷:

  • 不保存草稿:Draft One不会保存AI生成的原始草稿,也不会记录报告中哪些部分是由AI生成的。这意味着,一旦报告被警员修改并最终定稿,人们将无法得知AI在其中扮演了什么角色,也无法判断警员是否对AI的输出进行了适当的修改和纠正。
  • 缺乏版本控制:Draft One不会保留不同版本的报告草稿,使得人们难以比较不同版本之间的差异,也难以评估AI的输出是否随着时间的推移而发生了变化。这对于判断AI的准确性和可靠性至关重要。
  • 审计日志功能不足:Draft One的审计日志功能十分有限,无法提供关于AI使用情况的全面信息。例如,它无法导出使用Draft One的警员名单,也无法导出由Draft One生成的所有报告列表。这使得人们难以对AI的使用情况进行统计分析,也难以发现潜在的滥用行为。

EFF认为,Draft One的这些设计缺陷并非偶然,而是Axon公司有意为之。EFF在报告中援引了一段Axon公司高管的视频,视频中该高管表示,Draft One不保存原始草稿是“出于设计”,目的是为了避免给客户和律师事务所带来更多的披露难题。EFF认为,这表明Axon公司更关心的是保护客户的利益,而不是确保AI的透明度和可审计性。

AI报告的潜在风险

Draft One的“烟幕”设计可能会带来一系列的风险。首先,它可能会助长警察的谎言。由于Draft One不保存原始草稿,警员可以随意修改AI生成的报告,甚至可以故意歪曲事实,而无需担心被发现。如果警员在法庭上作伪证,他们可以将责任推卸给AI,声称报告中的错误是AI造成的,而不是他们有意为之。这将使得追究警员的责任变得更加困难。

其次,Draft One可能会加剧司法不公。AI在生成报告时,可能会受到训练数据的影响,从而产生偏见。例如,如果AI的训练数据中包含了对某些种族或群体的歧视性描述,那么AI生成的报告也可能会带有类似的偏见。如果警员没有对这些偏见进行适当的纠正,那么这些报告可能会导致对某些群体的不公正对待。

此外,Draft One还可能被用于掩盖警察的渎职行为。例如,如果一名警员在执法过程中使用了过度的武力,他可以使用Draft One来生成一份虚假的报告,掩盖自己的不当行为。由于Draft One不保存原始草稿,人们将难以发现报告中的虚假之处,也难以追究警员的责任。

EFF的建议

为了应对AI生成警察报告可能带来的风险,EFF提出了以下建议:

  • 加强监管:政府应该加强对AI生成警察报告的监管,制定明确的法律法规,确保AI的透明度和可审计性。例如,法律可以要求警察部门保存AI生成的原始草稿,并记录报告中哪些部分是由AI生成的。
  • 提高透明度:警察部门应该提高AI使用情况的透明度,公开AI的使用政策和程序,并向公众提供关于AI生成报告的统计数据。这有助于增强公众对警察部门的信任,也有助于发现潜在的滥用行为。
  • 加强培训:警察部门应该加强对警员的培训,提高他们对AI的认识和理解,使他们能够正确地使用AI工具,并识别AI可能存在的偏见。此外,警察部门还应该加强对警员的职业道德教育,提醒他们对自己的行为负责,不得利用AI来掩盖真相、逃避责任。
  • 建立独立的审计机制:政府应该建立独立的审计机制,定期对AI生成警察报告的系统进行审计,评估其准确性、可靠性和公正性。审计结果应该向公众公开,以便接受公众的监督。

案例分析

为了更直观地了解AI生成警察报告可能带来的风险,我们可以看一个 hypothetical 的案例:

假设一名警员在处理一起入室盗窃案时,使用了Draft One来生成报告。AI在分析执法记录仪的音频数据后,生成了一份报告初稿,其中提到嫌疑人是一名非裔美国人。然而,事实上,这名警员并没有看到嫌疑人的种族,AI的描述很可能是受到了训练数据的影响。如果这名警员没有对AI的描述进行适当的修改,那么这份报告可能会导致对非裔美国人的歧视性对待。

此外,假设这名警员在抓捕嫌疑人时,使用了过度的武力。为了掩盖自己的不当行为,他可以使用Draft One来生成一份虚假的报告,声称嫌疑人在拒捕,而他只是使用了必要的武力来自卫。由于Draft One不保存原始草稿,人们将难以发现报告中的虚假之处,也难以追究警员的责任。

这个案例表明,AI生成警察报告可能会带来严重的风险,甚至会损害司法公正。因此,我们必须加强对AI生成警察报告的监管,确保其透明度和可审计性,防止其被滥用。

其他国家和地区的实践

值得注意的是,其他一些国家和地区也在积极探索AI在执法领域的应用,并采取了一些措施来应对潜在的风险。例如,英国政府发布了一份关于AI伦理的指导方针,要求公共部门在使用AI时,必须确保其公平、透明和可解释。欧盟也在制定一项关于AI的法律框架,旨在规范AI的应用,保护公民的权利。

这些实践经验表明,AI在执法领域的应用并非不可行,但必须采取谨慎的态度,充分考虑潜在的风险,并采取相应的措施加以防范。只有这样,才能确保AI真正为社会带来福祉,而不是成为损害司法公正的工具。

结论

AI生成警察报告是一项具有潜力但也存在风险的技术。我们不能因为AI能够提高效率而盲目地接受它,而应该对其潜在的风险保持警惕,并采取相应的措施加以防范。只有这样,才能确保AI真正为社会带来福祉,而不是成为损害司法公正的工具。EFF的调查报告为我们敲响了警钟,提醒我们必须加强对AI生成警察报告的监管,确保其透明度和可审计性,防止其被滥用。同时,我们也应该加强对警员的培训,提高他们对AI的认识和理解,使他们能够正确地使用AI工具,并识别AI可能存在的偏见。只有这样,才能确保AI在执法领域的应用是负责任的、公正的、透明的,最终服务于公众的利益。

随着AI技术的不断发展,AI在执法领域的应用将会越来越广泛。我们必须提前做好准备,制定完善的法律法规,建立独立的审计机制,加强对AI的监管,确保AI的应用符合伦理道德,保护公民的权利。只有这样,才能充分发挥AI的潜力,为构建一个更加公正、安全、美好的社会做出贡献。