在科技日新月异的时代浪潮中,人工智能(AI)技术正以前所未有的速度渗透到各个领域,其中也包括执法部门。然而,一项最新的调查揭示了一款名为“Draft One”的AI警务工具,其设计理念和实际应用方式引发了关于透明度、问责制以及潜在滥用风险的深刻担忧。这款工具由Axon公司开发,旨在辅助警察撰写报告,但其内部机制却隐藏着可能削弱司法公正的“烟幕”。
AI警务工具:效率提升与问责缺失
“Draft One”的核心功能是利用语音识别技术,将执法人员随身摄像头记录的音频转化为文字,并借助ChatGPT等大型语言模型生成初步的报告草稿。警察随后需要对草稿进行编辑、修正,并补充必要的背景信息。理论上,这可以显著提高报告撰写效率,减轻警务人员的文书负担,使他们能够将更多精力投入到实际的治安工作中。然而,电子前哨基金会(EFF)的调查报告指出,这款工具的设计存在重大缺陷,使其几乎无法进行有效的审计和监督。
EFF的报告着重强调了以下几个关键问题:
- 缺乏透明度:并非所有部门都要求警察披露AI的使用情况,这使得公众难以知晓哪些报告是由AI辅助生成的。
- 数据不留存:Draft One不会保存报告的原始草稿或历史版本,这意味着无法追踪报告内容随时间的变化,也无法区分哪些部分是由AI生成,哪些部分经过人工修改。
- 审计困难:由于缺乏详细的使用记录和版本控制,外部机构难以评估AI生成报告的准确性、偏见以及潜在的误导性。
这些缺陷共同构成了一道“烟幕”,使得对AI警务工具的有效监督和问责变得异常困难。如果警察在报告中出现不实陈述,他们可以将责任推卸给AI,声称是AI的“误解”或“错误”。在这种情况下,将难以确定究竟是警察有意撒谎,还是AI系统存在缺陷。这种模糊的责任界定,无疑会损害司法公正,并可能导致冤假错案的发生。
Axon的回应与质疑
面对质疑,Axon公司回应称,Draft One旨在“镜像现有的警察叙事流程”,即只保存最终批准的报告,而不保留中间的编辑、添加或删除记录。该公司还强调,Draft One的使用情况会被记录在Axon Evidence的“不可更改的数字审计跟踪”中,并且每个报告都包含一个可定制的免责声明,用于告知AI的使用情况。此外,Axon还表示,他们已经增加了导出Draft One使用情况报告的功能,以进一步支持透明度和监督。
然而,EFF对Axon的回应并不满意。他们指出,即使Draft One的使用情况被记录在审计跟踪中,但缺乏对报告内容的详细记录,使得审计的价值大打折扣。此外,EFF还质疑Axon是否有能力追踪警察对Draft One的使用情况,以及AI生成报告的整体质量。
潜在的风险与挑战
AI警务工具的广泛应用,还可能带来以下潜在的风险和挑战:
- 偏见放大:AI系统可能受到训练数据中的偏见影响,从而在报告中产生带有歧视色彩的描述或结论。例如,如果训练数据中包含对特定族裔或社区的负面刻板印象,AI可能会在生成报告时,不自觉地强化这些偏见。
- 误解和误判:AI系统可能难以准确理解俚语、口音或特定文化背景下的表达方式,从而导致误解和误判。这在涉及多元文化背景的案件中,可能会造成严重的后果。
- 过度依赖:警察可能会过度依赖AI生成的报告,而忽略了对事实的独立调查和判断。这可能会导致关键证据被忽视,或者对案件的错误定性。
- 隐私侵犯:AI系统需要访问大量的个人数据才能生成报告,这可能会引发对隐私侵犯的担忧。如何确保这些数据得到安全保护,防止滥用,是一个亟待解决的问题。
立法监管与公众监督
为了应对AI警务工具带来的挑战,一些地区已经开始采取行动。在加利福尼亚州,一项法案被提出,要求明确披露警察报告中哪些部分是由AI生成的,并要求保留AI生成的原始草稿。犹他州也在考虑类似的举措。此外,一些检察官办公室已经禁止使用AI警察报告,理由是对其可靠性和公正性的担忧。
除了立法监管外,公众监督也至关重要。EFF呼吁建立一个全国性的监测网络,以跟踪AI生成警察报告的使用情况,并鼓励记者和公民提交记录请求,以获取有关警察部门使用AI的信息。然而,EFF也承认,获取这些记录并不容易,在许多情况下,甚至是完全不可能的。
行业白皮书视角:AI警务的未来之路
从行业白皮书的视角来看,AI技术在警务领域的应用具有巨大的潜力,但也面临着严峻的挑战。为了确保AI技术能够真正服务于公共安全,而不是成为损害司法公正的工具,我们需要采取以下措施:
- 加强透明度:要求警察部门明确披露AI的使用情况,并提供详细的报告生成过程记录,以便公众进行监督。
- 建立问责机制:明确AI系统在报告中的角色和责任,并建立相应的问责机制,以防止警察将责任推卸给AI。
- 消除偏见:采取措施消除AI系统中的偏见,确保其生成的报告公正、客观。
- 保护隐私:加强对个人数据的保护,防止AI系统被滥用,侵犯公民的隐私权。
- 加强培训:对警察进行培训,使其能够正确使用AI系统,并能够识别和纠正AI生成的错误。
- 持续评估:对AI系统的性能进行持续评估,及时发现和解决问题。
只有通过加强透明度、建立问责机制、消除偏见、保护隐私、加强培训和持续评估,我们才能确保AI技术在警务领域的应用,真正服务于公共安全,而不是成为损害司法公正的“烟幕”。
案例分析:King County的禁令
King County(华盛顿州)检察官办公室禁止使用AI警察报告的案例,为我们提供了一个重要的参考。该办公室认为,使用AI工具可能会“危及案件”,并对AI系统的可靠性和公正性表示担忧。这一禁令反映了对AI警务工具潜在风险的深刻认识,并强调了在部署这些技术之前,进行充分评估和监管的必要性。
数据佐证:透明度缺失的现状
EFF的调查发现,许多警察部门无法提供关于AI使用情况的详细数据,这表明透明度缺失是一个普遍存在的问题。例如,印第安纳州的一个部门告诉EFF,他们“无法创建通过Draft One创建的报告列表”,因为这些报告“无法搜索”。这种数据缺失的现状,使得对AI警务工具的有效监督变得异常困难。
结论:审慎前行,确保AI服务于公正
AI警务工具的出现,无疑为执法部门带来了新的机遇,但也带来了新的挑战。我们必须以审慎的态度对待这些技术,加强监管,确保透明度,建立问责机制,并持续评估其性能。只有这样,我们才能确保AI技术真正服务于公共安全,而不是成为损害司法公正的“烟幕”。在追求技术进步的同时,我们绝不能忘记对公平、公正和透明度的坚守。