在科技飞速发展的今天,人工智能(AI)技术已经渗透到我们生活的方方面面,其中也包括执法领域。然而,一项最新的调查揭示了一种令人担忧的趋势:某些AI警务工具的设计似乎有意规避公众监督,这引发了关于透明度、责任和潜在滥用的 गंभीर चिंताएं।
AI警务工具的“烟幕弹”效应
电子前沿基金会(EFF)发布了一份详尽的调查报告,直指Axon公司开发的Draft One AI警务报告生成工具存在严重的问题。该工具利用ChatGPT的变体,通过分析执法记录仪的音频来自动生成报告初稿。警官们本应审核、编辑这些初稿,以确保准确性和公正性,但实际情况却远非如此。
EFF的调查发现,Draft One的设计似乎旨在阻止任何形式的审计、透明度和问责。例如,该工具不会保存报告草稿,也不会记录哪些部分是由AI生成的。此外,各部门也不会保留不同版本的草稿,这使得公众难以评估AI报告的质量和潜在偏差。更令人担忧的是,Axon公司的一位高级产品经理甚至公开表示,不存储原始草稿是“一项功能”,目的是为了减少客户和律师事务所的披露麻烦。
这种“烟幕弹”效应可能导致严重的后果。如果报告中出现偏差、不准确或虚假信息,执法人员可以将责任推给AI,从而逃避惩罚。由于没有记录显示错误是由警官还是AI造成的,因此几乎不可能评估该系统对司法结果的长期影响。
缺乏透明度与问责机制
EFF的报告指出,Draft One的“审计日志”功能实际上毫无用处,与警察部门通常的数据保留规范背道而驰。该工具不允许各部门导出使用Draft One的警官名单,也无法导出由Draft One创建的所有报告的列表,除非该部门已自定义其流程。这使得即使是最基本的统计分析也变得极其困难,例如有多少警官正在使用该技术,以及他们使用的频率。
虽然Axon公司声称Draft One的使用情况会存储在Axon Evidence的数字审计跟踪中,并且可以生成报告来显示每个用户生成和提交的草稿数量,但EFF的调查发现,实际操作起来并非易事。在某些部门,可能需要梳理数十、数百甚至数千个单独的用户日志才能确定他们何时使用了Draft One。同样,逐一筛选报告也需要花费大量时间。
更令人担忧的是,并非所有执法人员都可以搜索其Draft One报告,但Axon公司可以。这意味着该公司可以比警察部门更好地跟踪警察使用该工具的频率。
潜在的偏见与滥用
除了缺乏透明度和问责机制外,Draft One还可能存在其他问题。例如,该工具可能会过度解释音频,误解俚语或添加从未发生过的背景信息。这可能导致报告中出现偏差或不准确,从而影响司法公正。
更重要的是,一些公共辩护律师担心,AI生成的警察报告可能会影响交叉询问,因为警官可能会将责任推给AI,从而逃避因在法庭上撒谎而受到的惩罚。
采取行动:呼吁透明与监督
为了解决这些问题,EFF呼吁在全国范围内努力监测AI生成的警察报告,并发布了一份指南,以帮助记者和其他人提交记录请求,以监测其所在地区警察的使用情况。然而,EFF的调查证实,“不幸的是,获取这些记录并不容易。在许多情况下,这根本是不可能的。”
EFF的高级政策分析师Matthew Guariglia表示,如果不加以干预,AI生成的警察报告可能会在美国警务中变得越来越普遍。为了防止这种情况发生,EFF正在敦促检察官效仿华盛顿州金县地区检察官办公室的做法,禁止使用AI警察报告。该办公室表示,使用AI工具可能会“危及案件”。
Guariglia认为,“警察不应该使用AI来撰写警察报告。关于AI如何翻译情境音频、警察是否会真正编辑这些草稿,以及公众是否能够分辨哪些是人写的、哪些是电脑写的,都存在太多悬而未决的问题。这甚至在我们讨论这些报告可能如何在已经不公平和不透明的刑事司法系统中导致问题之前。”
Axon公司的回应
Axon公司在一份声明中表示,Draft One可以帮助警官根据执法记录仪的音频记录起草初步报告,并包含一系列保障措施,包括在关键时刻进行强制性的人工决策和使用的透明度。该公司还表示,与非Draft One生成的叙述性报告一样,警官仍然对内容负全部责任。每份报告都必须由人工警官编辑、审查和批准,以确保准确性和问责制。
此外,Axon公司声称,自Draft One使用之日起,其使用情况将存储在Axon Evidence的不可更改的数字审计跟踪中,各部门可以检索任何报告。默认情况下,每个Draft One报告还包括一个可自定义的免责声明,该免责声明可以根据部门政策出现在报告的开头或结尾。该公司最近还增加了各部门导出Draft One使用情况报告的功能,以进一步支持透明度和监督。
立法行动与未来展望
在加利福尼亚州,一项法案已被提出,该法案将要求披露警察报告的哪些部分是由AI生成的。如果该法律获得通过,还将“要求将创建的第一个草案保留与最终报告一样长的时间”,Guariglia表示,这将使Draft One目前的设计自动变为非法。犹他州正在考虑一项类似的但不太有力的倡议。
随着AI技术在执法领域的应用越来越广泛,确保透明度、问责制和公正性至关重要。我们需要对这些工具进行严格的审查和监督,以防止潜在的滥用和偏见,并确保所有人的合法权益得到保障。
案例分析:AI警务报告的潜在风险
为了更深入地了解AI警务报告的潜在风险,我们可以考虑以下案例:
假设一名警官在处理一起涉及多名嫌疑人的案件时使用了Draft One。由于AI对音频的误解,报告中可能出现不准确的信息,例如将一名无辜的旁观者误认为嫌疑人。如果警官没有仔细审查报告,这些错误的信息可能会被纳入最终报告中,并导致对无辜者的错误指控。
此外,如果报告中包含AI生成的带有偏见的语言,例如对特定种族或族裔群体的刻板印象,这可能会加剧现有的歧视现象,并导致不公正的判决。
更糟糕的是,如果警官故意利用AI来掩盖自己的不当行为,例如过度使用武力或非法搜查,他们可以将责任推给AI,从而逃避惩罚。
这些案例表明,AI警务报告可能对个人和整个社会产生严重的负面影响。因此,我们需要采取积极措施来减轻这些风险,并确保AI技术在执法领域的应用符合伦理和公正的原则。
数据佐证:AI警务报告的准确性与偏差
目前,关于AI警务报告的准确性和偏差的数据仍然有限。然而,一些初步研究表明,这些工具可能存在一些问题。
例如,一项研究发现,AI生成的面部识别算法在识别有色人种时存在更高的错误率。这表明,如果将这些算法用于警务领域,可能会导致对少数族裔的错误逮捕和指控。
此外,一些研究人员还发现,AI生成的风险评估工具可能会受到训练数据的偏差影响,从而导致对特定人群的歧视性判决。
这些数据表明,我们需要对AI警务报告进行更深入的研究,以了解其潜在的偏差和不准确性。只有通过充分的数据支持,我们才能制定有效的政策来规范AI技术在执法领域的应用。
结论:在创新与责任之间寻求平衡
AI技术在执法领域具有巨大的潜力,可以提高效率、减少人为错误,并改善公共安全。然而,我们也必须认识到,这些技术可能带来的风险,并采取积极措施来减轻这些风险。
为了确保AI技术在执法领域的应用符合伦理和公正的原则,我们需要:
- 加强透明度:执法部门应公开披露其使用AI技术的类型、目的和效果。
- 建立问责机制:对于因AI技术造成的错误或不公正行为,应明确责任主体,并建立相应的惩罚机制。
- 进行独立审计:应定期对AI系统进行独立审计,以评估其准确性、偏差和潜在风险。
- 加强公众参与:应邀请公众参与AI技术的开发和部署过程,以确保其符合社会价值观。
只有通过创新与责任之间的平衡,我们才能充分利用AI技术在执法领域的潜力,同时最大限度地减少其潜在风险,并确保所有人的合法权益得到保障。