联邦缺位下的地方实践:美国各州如何构建人工智能监管新范式
随着人工智能(AI)技术以前所未有的速度融入社会经济的各个层面,其潜在的风险与挑战也日益凸显。在全球范围内,各国政府都在积极探索AI治理的有效路径。在美国,联邦层面的AI立法进程相对滞后,这使得各州成为AI监管探索与实践的前沿阵地。2025年,美国全部50个州都提出了与AI相关的立法议案,这不仅填补了联邦监管的空白,也揭示了AI治理领域“自下而上”的独特模式。这种由州主导的监管实践,正深刻塑造着美国AI技术的合规边界与伦理框架,旨在平衡技术创新与公共利益之间的微妙关系。
当前,州层面的AI监管重点主要集中在四大关键领域:公共部门对AI的应用、医疗健康领域的AI部署、面部识别技术的使用,以及生成式AI及其基础模型的规范。这些领域因其对公民权利、数据隐私和公共福祉的直接影响,成为各州立法机构关注的核心。
公共部门AI应用的规范与透明度
AI技术在公共服务领域的应用,如预测性警务、社会福利资格审查、甚至刑事司法判决与假释建议等,正日益普及。预测性AI通过大数据分析与复杂算法,旨在提升政府决策效率和公共服务供给的精准性。例如,在城市规划中,AI可用于优化交通流量,减少拥堵;在资源分配上,可预测特定社区的能源或水资源需求,实现更精细化的管理。然而,这种广泛应用也带来了显著的算法风险,其中最引人关注的便是算法偏见。
算法偏见可能源于训练数据的历史不公,或是模型设计中的内在缺陷,导致AI系统在对不同种族、性别或社会经济群体进行决策时,表现出歧视性结果。例如,一套用于评估社会服务申请的AI系统,如果其训练数据过度偏向某一特定群体,可能无意中剥夺了其他弱势群体的应有权益。同样,在刑事司法领域,有研究表明,某些预测性算法对少数族裔的再犯风险评估更高,从而可能导致更严厉的判决或更长的刑期。这些潜在的“算法损害”不仅侵蚀了公共信任,也可能加剧社会不平等。
面对这些挑战,各州立法机构积极出台政策,聚焦公共部门AI应用的透明度、消费者保护及风险识别。例如,科罗拉多州的《人工智能法案》就对涉及“关键决策”的AI系统开发者和部署者提出了严格的透明度和信息披露要求。这意味着,当AI系统被用于可能对个人生活产生重大影响的决策时,其运作机制和潜在风险必须被清晰地告知相关方。蒙大拿州新通过的“计算权法案”则进一步要求AI开发者针对涉及关键基础设施的AI系统,采纳严格的风险管理框架。这些框架旨在确保在AI系统开发过程中,安全和隐私问题得到充分考虑和持续解决。此外,纽约州SB 8755法案等还设立了专门的机构来提供监督和监管权限,强调了对公共部门AI应用进行持续审查和评估的重要性,以确保其公平、负责和符合公共利益。这些措施共同构筑了公共部门AI应用的一道“防火墙”,旨在最小化潜在的负面影响,并最大化其积极作用。
医疗健康领域AI的伦理与安全
2025年上半年,美国有34个州提出了超过250项与AI相关的医疗健康法案,显示出对该领域AI应用的强烈关注。这些法案大致可分为四大类:信息披露要求、消费者保护、保险公司AI使用监管以及临床医生AI使用规范。AI在医疗领域的应用前景广阔,从辅助诊断、药物研发到个性化治疗方案,都能极大地提升医疗效率和治疗效果。例如,AI驱动的影像识别系统能够辅助医生更早、更准确地发现疾病迹象,从而为患者争取宝贵的治疗时间。然而,考虑到医疗决策对个体生命健康的直接影响,AI在这一领域的应用必须审慎。
信息披露要求旨在确保AI系统开发者和部署者能够提供足够的信息,以便医疗专业人员和患者理解AI工具的功能、局限性及其潜在风险。消费者保护条款则着重于防止AI系统在医疗服务中出现不公平歧视,并确保患者拥有对AI决策提出异议和申诉的权利,例如,当AI算法错误地拒绝了患者的治疗申请时。对保险公司使用AI的监管,是为了防止其利用AI算法在审批医疗服务或支付时,过度优化成本而损害患者利益。最后,针对临床医生使用AI的法案,则旨在规范AI工具在疾病诊断、治疗方案制定以及患者管理中的应用,确保AI是辅助而非取代人类医生的专业判断,并明确医生在使用AI工具时的责任边界。这些立法努力共同构筑了医疗AI的伦理与安全底线,力求在推动医疗创新的同时,保障患者的生命健康权益。
面部识别技术的隐私与民权挑战
面部识别技术因其在预测性警务和国家安全领域的广泛应用而备受关注,但也带来了重大的隐私挑战和潜在偏见风险。在美国,保护个人自主权免受政府干预是一项长期的法律原则,这同样适用于面部识别等隐私保护问题。该技术的核心在于通过分析人脸特征进行身份识别或验证,但其“黑箱”特性以及数据来源的复杂性,使得其公平性受到质疑。
多项研究表明,面部识别软件在识别有色人种时表现出更高的错误率,这使得该技术成为公民自由的潜在威胁。例如,计算机科学家Joy Buolamwini和Timnit Gebru的开创性研究指出,面部识别软件在识别黑人和其他历史上处于劣势的少数民族时面临显著挑战,识别深色皮肤面孔的准确率普遍较低。这种偏见不仅可能导致无辜者被错误识别或逮捕,也可能加剧现有社会不公。偏见还可能渗入用于训练这些算法的数据中,例如,如果开发面部识别软件的团队缺乏多样性,其收集和标注的数据集可能无法充分代表所有群体,从而导致算法对某些群体识别能力的下降。
截至2024年底,美国已有15个州颁布了法律,旨在限制面部识别技术可能带来的危害。这些州级法规的一些关键要素包括:要求供应商公布偏见测试报告和数据管理实践,以及在使用这些技术时必须进行人工审查。这些规定旨在提高技术的透明度,减轻算法偏见,并确保在敏感领域(如执法)使用面部识别时,始终有人类监督和决策参与,以维护公民的隐私权和基本自由。
生成式AI与基础模型的透明度要求
生成式AI的广泛应用,尤其是在内容创作、个性化服务和虚拟交互领域的突破,也引起了许多州立法者的关注。这类AI系统能够生成文本、图像、音频甚至视频等多种形式的内容,其功能日益强大。基础模型,作为一种在海量数据集上训练、能够适应广泛任务而无需额外训练的AI模型,构成了许多先进生成式AI系统的核心。例如,大型语言模型(LLMs)可以根据用户输入生成连贯且上下文相关的文本,这在自动化内容生产、智能客服和教育辅导等领域展现出巨大潜力。
然而,生成式AI的快速发展也带来了新的挑战。其中一个主要问题是“幻觉”现象,即AI生成看似合理但实际上虚假或不准确的信息。此外,生成内容的原创性和版权归属问题也日益突出,特别是当AI在未经许可的情况下使用了受版权保护的数据进行训练时。AI开发者通常对他们使用的训练数据不予透露,这给版权所有者维护自身权益带来了困难。缺乏透明度使得内容创作者难以了解他们的作品是否被用于AI模型的训练,也难以评估其对原创内容市场的潜在影响。
为了解决这些问题,一些州采取了积极措施。犹他州的《人工智能政策法案》要求个人和组织在使用生成式AI系统与他人互动时,如果对方询问是否使用了AI,必须明确披露。尽管该法案的范围后来被缩窄至涉及提供建议或收集敏感信息的互动,但其核心精神在于强调透明度和用户知情权。加利福尼亚州在去年通过的AB 2013法案则更进一步,要求生成式AI的开发者,包括那些开发基础模型的公司,在其网站上公开用于训练AI系统的数据信息。这类立法有助于版权所有者克服缺乏透明度的问题,更好地保护其内容不被未经授权地用于AI训练。同时,这类法规也旨在遏制AI滥用,例如生成虚假信息(深度伪造)或进行欺诈活动,确保AI技术在可控和负责任的框架内发展。
州级立法的复杂图景与联邦干预的阴影
在缺乏全面的联邦立法框架的情况下,各州通过各自的立法努力来填补AI监管的空白,这无疑提供了重要的监督和保障,尤其是在隐私、民权和消费者保护方面。这种“实验室”式的州级实践,允许不同地区根据自身特点和民众需求,探索多样化的监管方案,从而可能催生出更具适应性和创新性的治理模式。然而,这种碎片化的法律格局也带来了一系列挑战。
首先,对于AI开发者和企业而言,面对50个州可能各不相同的法规要求,合规成本将显著增加。企业可能需要在不同州采用不同的运营策略和技术标准,这无疑会阻碍AI技术的规模化部署和创新。其次,这种监管碎片化可能导致公民在不同州获得的保护水平不一,形成“监管套利”空间,使得一些企业选择在监管较宽松的州发展,从而削弱了整体的监管效果。此外,跨州数据流动和AI服务部署的复杂性,也对这种地方主导的监管模式提出了新的挑战。
与此同时,联邦政府的立场转变也为州级监管努力蒙上了一层阴影。2025年7月23日,前总统特朗普政府公布了其“美国AI行动计划”,其中明确指出:“联邦政府不应允许与AI相关的联邦资金流向那些拥有繁重AI法规的州……”这一举动可能阻碍各州的AI监管努力,如果各州不得不权衡可能被行政部门定义为“繁重”的法规与所需联邦资金之间的关系。这预示着未来美国AI监管格局将是联邦与州之间一场复杂的博弈。这种潜在的联邦干预,可能迫使各州在推动AI监管进步与争取联邦资金支持之间做出艰难抉择,从而对美国AI治理的未来走向产生深远影响。最终,一个既能促进技术创新又能保障公共利益的AI治理体系,可能需要联邦与州之间更紧密的协作与更明晰的权责划分。