联邦缺位下,各州争相立法:美国AI监管的多元路径与挑战

0

在人工智能(AI)技术飞速发展的当下,其在社会各领域的深远影响促使全球范围内的监管框架加速成型。然而,在美国,AI监管的版图呈现出独特的联邦与州分治局面。联邦层面在制定全面、统一的AI法规方面进展迟缓,这使得各州成为AI立法和政策实践的先行者。2025年,美国全部50个州都提出了与AI相关的立法议案,这一现象清晰地表明了地方政府在应对AI挑战方面的积极态度和关键作用。

加州州议会大厦 加州州议会大厦

加州州议会大厦已成为多项AI监管努力的发生地。这一趋势不仅反映了对AI潜在风险的普遍担忧,也凸显了各州在填补联邦监管真空方面的必要性。在国会未能通过一项旨在暂停州级AI监管的提案后,各州拥有了更大的自由度,可以根据自身特点和需求,探索多元化的AI治理模式。当前,各州的立法焦点主要集中在以下四个关键领域。

公共部门AI应用的审慎之道

人工智能在公共服务领域的应用日益广泛,从社会福利资格的认定到刑事司法量刑建议,预测性AI技术正在重塑政府职能。然而,这种广泛应用也带来了显著的潜在风险和隐性成本。算法决策可能导致意想不到的社会不公,特别是当其中潜藏种族或性别偏见时。例如,一个基于历史数据训练的AI系统,如果原始数据本身就反映了社会偏见,那么其得出的决策也极有可能延续甚至放大这些偏见,最终损害特定群体的权益。

认识到算法偏见的危害性,许多州立法机构已着手制定针对公共部门AI使用的法案,核心在于提升透明度、强化消费者保护以及识别并管理AI部署的风险。例如,科罗拉多州的《人工智能法案》就要求那些开发或部署涉及“重要决策”AI系统的企业,必须公开披露其系统的相关风险和工作原理。这不仅是对开发者的约束,更是对公众知情权的保障。蒙大拿州新颁布的《计算权法》则进一步要求AI开发者针对用于关键基础设施的AI系统,采纳严格的风险管理框架,以确保在开发过程中充分考虑安全和隐私。此外,一些州如纽约,则通过设立专门的机构,赋予其对公共部门AI的监督和管理权,旨在构建更为健全的治理体系。这些措施共同构筑了一道防线,以期在享受AI带来的效率提升的同时,最大限度地规避其可能带来的社会负面效应。

医疗健康AI的伦理与监管

在2025年上半年,美国有34个州提出了超过250项与AI相关的医疗健康法案,这充分体现了医疗领域对AI技术规范的迫切需求。这些法案大体可分为四类:信息披露要求、消费者保护、保险公司AI使用规范以及临床医生AI使用规范。

首先,关于信息披露的法案旨在强制AI系统开发者和部署机构公开其AI产品的关键信息,例如数据来源、算法逻辑、性能指标及潜在局限性等。这种透明度对于医疗这种高风险领域尤为重要,它能帮助医疗专业人员和患者更好地理解和信任AI辅助决策。其次,消费者保护法案的核心目标是防止AI系统对患者造成不公平歧视,并确保患者拥有对AI决策提出异议和申诉的权利。这意味着当AI系统做出影响患者治疗方案或服务获取的决策时,必须有一个清晰、公正的复核机制,并且最终决策权仍应归属于人类专业人士。再次,针对保险公司使用AI的法案,则侧重于监督其在医疗审批和支付决策过程中AI的应用。鉴于AI可能被用于优化成本或提高效率,此类监管旨在防止AI被滥用,导致患者无法获得所需的医疗服务。最后,关于临床AI使用的法案,则直接规范了AI技术在患者诊断和治疗过程中的应用,旨在确保AI辅助诊断的准确性、治疗方案的安全性以及对患者隐私的严格保护。

面部识别技术的双刃剑与制衡

面部识别技术,作为AI应用中最具争议性的领域之一,其隐私保护问题和潜在的偏见风险广受关注。在美国,长期以来保护个人免受政府干预的法律原则同样适用于面部识别等隐私议题。然而,在预测性警务和国家安全领域的广泛应用,使得面部识别技术带来了严峻的隐私挑战,同时,其固有的算法偏见也对公民自由构成威胁。

具有里程碑意义的研究,例如计算机科学家乔伊·布奥兰维尼(Joy Buolamwini)和蒂姆尼特·格布鲁(Timnit Gebru)的发现,揭示了面部识别软件在识别有色人种时存在显著障碍,对黑人和其他历史上处于劣势的少数群体构成不公平。他们的研究发现,深色皮肤的面孔被正确识别的可能性更低。这种偏见不仅源于数据本身,也可能根植于开发团队的构成——如果开发面部识别软件的团队缺乏多样性,其在数据选择、算法设计中就更容易无意中引入或放大偏见。这种偏差一旦进入算法,便会通过技术应用固化并扩散社会不公,例如在司法领域可能导致错误的逮捕或不公的判决。

鉴于此,截至2024年底,美国已有15个州颁布了法律,旨在限制面部识别技术可能造成的危害。这些州级法规的一些核心要素包括:要求供应商公布其偏见测试报告和数据管理实践,以确保算法的公平性和透明度;以及在使用这些技术时,必须强调人工审查的重要性。通过强制性的人工干预,旨在为AI决策提供最终的人类监督和纠偏机制,从而最大程度地降低自动化决策带来的风险。

生成式AI与基础模型的知识产权及透明度

生成式AI的普及应用引发了许多州立法者的担忧,特别是关于其训练数据的来源、知识产权归属以及潜在的虚假信息生成能力。以犹他州为例,其《人工智能政策法案》最初要求个人和组织在使用生成式AI系统与他人互动时,若对方询问是否正在使用AI,则必须明确披露。虽然该法案后来将范围收窄至可能涉及提供建议或收集敏感信息的互动,但其核心精神仍在于促进AI使用的透明度,特别是对于那些可能影响用户重要决策的场景。

去年,加利福尼亚州通过了AB 2013法案,这是一项针对生成式AI的法律,要求开发者在其网站上公布用于训练其AI系统(包括基础模型)的数据信息。基础模型是指那些在海量数据集上训练,并能适应广泛任务而无需额外训练的AI模型。传统上,AI开发者对于其训练数据通常不愿透露过多细节,这使得内容版权所有者难以追溯其作品是否在未经授权的情况下被用于AI训练。加州的这项立法旨在弥补这种透明度不足,为版权所有者提供了追究权利的依据,同时也促使AI行业更加负责任地对待数据使用和知识产权问题。这不仅关系到原创内容的保护,也关乎整个AI生态的健康发展。

展望:联邦与州之间的监管博弈

在缺乏统一、全面的联邦立法框架背景下,美国各州正积极通过各自的立法努力来填补AI监管的空白。尽管这种“碎片化”的法律格局可能为AI开发者带来合规方面的复杂性,但这种自下而上的探索也具有不可忽视的积极意义。各州可以充当“民主的实验室”,针对AI在不同领域的具体应用,先行先试,积累监管经验。这种地方层面的创新和监督,对于保护个人隐私、维护公民权利以及保障消费者权益具有至关重要的作用。

然而,联邦政府的态度也为未来的AI监管走向增添了不确定性。2025年7月23日,美国政府公布了《美国AI行动计划》,其中明确指出:“联邦政府不应允许将与AI相关的联邦资金导向那些拥有繁重AI监管的州……”这一举措引发了广泛讨论。此举可能迫使各州在制定AI法规时权衡其对联邦资金获取的潜在影响。如果州政府不得不衡量监管措施是否会被联邦政府定义为“繁重”,并因此影响到关键的联邦AI资金,那么其在AI监管方面的自主性和积极性可能会受到抑制。这种联邦与州之间的潜在博弈,预示着美国AI监管的未来将是一个动态且充满挑战的演进过程,既要平衡创新与风险,又要协调不同层级政府的利益与目标。