AI警务的“烟幕”:当科技成为逃避问责的工具?

1

在科技日新月异的今天,人工智能(AI)正以前所未有的速度渗透到我们生活的方方面面。从智能家居到自动驾驶,AI的应用无处不在。然而,当AI与执法部门相结合时,其潜在的风险和伦理问题也日益凸显。本文将深入探讨AI在警务工作中的应用,特别是关于AI工具“烟幕”(Smokescreen)的争议,以及如何在追求效率的同时,确保透明度和问责制。

AI警务的崛起与潜在风险

随着科技的进步,执法部门开始探索利用AI来提高效率和准确性。AI驱动的工具可以分析大量数据,预测犯罪热点,辅助案件调查,甚至生成初步的报告。然而,这种趋势也引发了对隐私、偏见和问责制的担忧。

AI快讯

其中,最令人担忧的是AI可能被设计成缺乏透明度,从而掩盖其运作过程,使得公众难以监督和评估其影响。这种“黑箱”操作不仅可能导致不公正的结果,还可能侵蚀公众对执法部门的信任。

“烟幕”:一款旨在逃避问责的AI工具?

“烟幕”是一款由Axon公司开发的AI工具,旨在辅助警察生成报告。然而,电子前哨基金会(EFF)的调查显示,这款工具存在严重的设计缺陷,使其几乎无法被审计,并可能助长警察的不当行为。

据EFF的报告,“烟幕”的主要问题在于其会自动删除AI生成报告的草稿,并且不保留任何关于报告中哪些部分是由AI生成的记录。这意味着,如果报告中出现错误、偏见或不准确之处,将很难确定责任归属。

更令人担忧的是,Axon公司似乎有意避免透明度。EFF指出,Axon的一位高级产品经理曾表示,不存储原始草稿是为了避免给客户和律师事务所带来更多的信息披露麻烦。这种说法暗示,Axon更关心的是保护客户免受审查,而不是确保AI系统的公正性和准确性。

透明度缺失的影响

缺乏透明度可能导致一系列严重后果。首先,它使得公众难以评估AI工具的性能和可靠性。如果无法访问AI生成的草稿和修改记录,就无法判断AI是否准确地理解了事件,或者是否存在偏见。

其次,透明度缺失可能导致警察滥用AI工具。如果警察知道AI生成的报告不会被仔细审查,他们可能会倾向于直接采纳AI的输出,而不进行必要的编辑和修正。这可能导致不准确或有偏见的报告被提交,从而影响案件的公正性。

此外,缺乏透明度还可能使警察逃避责任。如果报告中出现错误或不准确之处,警察可以将责任归咎于AI,从而逃避因作伪证而可能面临的法律后果。这种“烟幕”效应可能会削弱公众对执法部门的信任,并损害司法系统的公正性。

如何应对AI警务的挑战

面对AI警务带来的挑战,我们需要采取一系列措施来确保透明度、问责制和公正性。

首先,立法机构应该制定明确的法律和法规,要求执法部门在使用AI工具时保持透明。这些法律应该规定,警察必须披露何时使用了AI,并保留AI生成的草稿和修改记录。

其次,执法部门应该建立独立的审计机制,定期评估AI工具的性能和可靠性。审计人员应该有权访问AI系统的所有数据和记录,并对AI的输出进行独立验证。

第三,公众应该积极参与到AI警务的监督中来。公民可以通过提交公共记录请求、参加社区会议和与民权组织合作来了解AI在执法中的使用情况,并对不当行为提出质疑。

第四,技术开发者应该将透明度和问责制纳入AI系统的设计中。他们应该开发工具,使警察能够轻松地编辑和修正AI生成的输出,并保留所有修改记录。此外,他们还应该公开AI系统的算法和数据,以便公众进行审查。

EFF的呼吁与未来展望

EFF正在呼吁在全国范围内加强对AI生成警察报告的监控。该组织发布了一份指南,帮助记者和其他人提交记录请求,以监控其所在地区警察对AI的使用情况。但EFF的调查证实,“不幸的是,获取这些记录并不容易,在许多情况下,这根本是不可能的。”

EFF的高级政策分析师Matthew Guariglia表示,如果不加以干预,AI生成的警察报告可能会在美国警务中变得更加普遍。在加利福尼亚州,一项法案已被提出,该法案将要求澄清警察报告的哪些部分是由AI生成的。如果该法律获得通过,还将“要求将创建的第一个草案保留与最终报告一样长的时间”,Guariglia告诉Ars,这将使Draft One目前的设计自动变为非法。

Guariglia告诉Ars,EFF已经与公共辩护律师进行了交谈,他们担心AI生成的警察报告的激增将“如何影响交叉询问”,因为它可能会给警察在被指控在证人席上撒谎时提供一个简单的替罪羊。

为了完全避免这个问题,华盛顿州金县至少有一个地方检察官办公室已经禁止使用AI警察报告,理由是“对市场上某些产品存在合理的担忧”。Guariglia告诉Ars,地区检察官最关心的问题之一是使用AI工具可能会“危及案件”。EFF现在敦促“其他检察官效仿,并要求其管辖范围内的警察不要释放这种新的、不负责任的和故意不透明的AI产品。”

Guariglia说:“警察不应该使用AI来撰写警察报告。关于AI将如何翻译情况的音频,警察是否会真正编辑这些草稿,以及公众是否能够分辨出什么是人写的,什么是计算机写的,这些问题都没有得到解答。这甚至在我们开始讨论这些报告可能如何导致本已不公平和不透明的刑事司法系统出现问题之前。”

案例分析

为了更具体地说明AI警务的潜在风险,我们可以考虑以下案例:

  • 在一起入室盗窃案中,AI工具根据报警电话的录音生成了一份初步报告。然而,AI错误地将受害者的口音识别为外语,并在报告中暗示受害者可能与犯罪分子有联系。如果警察没有仔细审查这份报告,可能会对受害者产生偏见,从而影响案件的调查。

  • 在一起交通违规事件中,AI工具根据执法记录仪的视频生成了一份报告。然而,AI未能准确识别车辆的颜色和型号,并在报告中添加了一些未经证实的细节。如果这份报告被提交给法庭,可能会导致错误的判决。

  • 在一起抗议活动中,AI工具根据社交媒体上的帖子生成了一份报告。然而,AI错误地将一些和平抗议者标记为暴力分子,并在报告中建议警方采取强硬措施。如果警方采纳了这份报告的建议,可能会侵犯抗议者的言论自由和集会权利。

这些案例表明,AI工具并非总是准确和公正的。如果警察过度依赖AI,可能会导致不公正的结果,并损害公众的利益。

结论

AI警务具有提高效率和准确性的潜力,但也存在严重的风险。为了确保AI被负责任地使用,我们需要采取一系列措施来加强透明度、问责制和公正性。这包括制定明确的法律和法规,建立独立的审计机制,鼓励公众参与监督,以及将透明度和问责制纳入AI系统的设计中。只有这样,我们才能充分利用AI的优势,同时避免其潜在的危害,从而建立一个更加公正和安全的社会。