联邦缺位下的AI监管:美国各州如何构建智能时代的安全边界?

1

联邦缺位下的AI治理:美国各州先行探索智能时代的监管路径

随着人工智能技术在全球范围内的迅猛发展,其带来的社会、经济和伦理影响日益显著,对有效的监管框架提出了迫切需求。在美国,鉴于联邦政府在AI立法方面尚未形成一套全面的规章体系,各州立法机构正积极发挥其“民主实验室”的作用,率先探索AI治理的边界和方向。2025年,美国全部50个州均已提出了与AI相关的立法动议,这表明了地方层面对于应对AI挑战的高度重视和积极姿态。国会此前否决了一项旨在暂停州级AI立法的提案,无疑进一步为各州放手实践提供了空间。

加州州议会大厦

加利福尼亚州议会大厦已成为众多AI监管努力的焦点。这种自下而上的监管模式虽然可能导致法规碎片化,但同时也允许各州根据自身特点和具体需求,进行更具针对性和灵活性的制度创新。当前,各州AI立法主要集中于以下四大关键领域:公共部门AI应用、医疗健康AI、面部识别技术以及生成式AI。

公共部门AI应用的规范与监督

在公共服务领域,人工智能的部署已日益普遍,从社会福利资格的自动化评估到刑事司法判决和假释建议的辅助决策,预测性AI的应用极大地提升了政府效能。然而,这种广泛采纳算法决策的趋势也伴随着潜在的巨大隐性成本和风险。例如,AI系统在处理敏感数据和进行关键决策时,可能无意中引入或放大固有的偏见,从而导致种族或性别歧视,对特定群体造成算法性伤害。

认识到这些潜在的算法风险,各州立法机构正着力制定旨在规范公共部门AI使用的法案。这些法案普遍强调透明度、消费者保护以及对AI部署风险的识别。例如,科罗拉多州的《人工智能法案》就明确要求,涉及“后果性决策”的AI系统开发者和部署者必须履行透明度和披露义务,确保公众了解AI系统的运作方式及其潜在影响。此外,蒙大拿州新颁布的“计算权”法案则要求AI开发者为其关键基础设施中的AI系统采纳风险管理框架,以确保开发过程中的安全性和隐私性。部分州还设立了专门的机构来提供监督和监管权限,旨在建立常态化的AI治理机制,确保公共AI应用的公平性、可解释性和问责制。

医疗健康领域AI的伦理与安全

医疗健康领域是AI应用最具潜力的场景之一,但也对监管提出了独特而复杂的挑战。仅在2025年上半年,就有34个州提出了超过250项与医疗AI相关的法案,这凸显了该领域监管的紧迫性。这些法案大体可分为四类:披露要求、消费者保护、保险公司AI使用规范以及临床医生AI使用规范。

关于透明度的法案,旨在明确AI系统开发者和部署机构应披露的信息范围,例如数据来源、模型局限性以及性能指标,以便医疗专业人员和患者能够做出明智的决策。消费者保护法案则致力于防止AI系统对患者造成不公平歧视,并确保个人有权对基于AI的医疗决策提出异议或寻求人工复核,维护患者的核心权益。针对保险公司使用AI的法案,旨在对其利用AI进行医疗审批和支付决策的行为进行监督,避免算法导致的不合理拒保或延迟赔付,确保医疗资源的合理分配。最后,关于临床AI应用的法案则着重规范AI在诊断和治疗患者过程中的使用,强调AI作为辅助工具的角色,必须在专业医生的监督下进行,并对潜在的误诊风险设定责任边界,从而保障患者的生命健康安全。

面部识别技术的隐私与公正挑战

在美国,一项长期适用的法律原则是保护个人自主权免受政府干预,这同样适用于面部识别等隐私保护议题。面部识别技术在预测性警务和国家安全领域的广泛应用,不仅带来了显著的隐私挑战,更因其潜在的偏见而引发了公民自由的担忧。计算机科学家乔伊·布奥拉姆维尼和蒂姆尼特·格布鲁的开创性研究揭示,面部识别软件对有色人种存在显著的识别偏差,其识别深色皮肤面孔的准确率普遍较低。

这种偏见并非偶然,往往根植于用于训练算法的数据本身,例如,如果指导面部识别软件开发的团队缺乏多样性,算法的偏差便更容易渗透和固化。到2024年底,美国已有15个州颁布了法律,旨在限制面部识别技术可能造成的危害。这些州级法规的要素包括要求供应商发布偏见测试报告、明确数据管理实践,以及在使用这些技术时必须有人工审查的环节。这些措施的目的是确保面部识别技术的应用更加公平、透明和负责,防止其成为歧视和侵犯公民权利的工具,从而维护社会公正和个人尊严。

生成式AI与基础模型的透明度与责任

生成式AI的普及也引起了许多州立法者的关注。犹他州的《人工智能政策法案》要求个人和组织在与他人互动时,若使用了生成式AI系统,且对方询问,则必须明确披露。虽然该法案后来将范围限定为可能涉及提供建议或收集敏感信息的互动,但这仍标志着对AI互动透明度的初步尝试。该法案的核心在于保障用户知情权,避免其在不知情的情况下与AI进行关键互动。

去年,加利福尼亚州通过了AB 2013法案,这是一项针对生成式AI的法律,要求开发者在网站上公布用于训练其AI系统(包括基础模型)的数据信息。基础模型是那些经过海量数据集训练、可适应广泛任务而无需额外训练的AI模型。传统上,AI开发者对其训练数据通常不愿公开。此类立法有助于版权所有者克服透明度不足的障碍,维护其知识产权。同时,公开训练数据也有助于识别和缓解模型中可能存在的偏见,从而推动AI技术向更加公平和负责的方向发展。

挑战与展望:地方探索如何塑造联邦未来

在联邦层面缺乏全面立法框架的背景下,各州正积极通过自身的立法努力来填补这一空白。尽管这种碎片化的法律体系可能给AI开发者带来复杂的合规挑战——例如,需要应对不同州对“敏感数据”或“后果性决策”的不同定义,这无疑增加了跨州运营的难度——但各州层面的探索提供了至关重要且亟需的监督,尤其是在隐私、公民权利和消费者保护方面。各州成为创新的试验田,可以根据地方经济、社会结构和公众关注点,量身定制更符合实际需求的AI政策。这种多元化的实践为未来联邦层面的统一立法积累了宝贵的经验和数据,有助于识别哪些监管路径最为有效,哪些则可能阻碍创新。

然而,联邦政府的态度也可能对州级努力产生影响。2025年7月23日,特朗普政府发布了《美国AI行动计划》,其中指出:“联邦政府不应允许将AI相关的联邦资金导向那些拥有繁重AI监管的州……”此举可能会阻碍州的AI监管努力,因为各州可能需要在“繁重”监管与急需的联邦AI资金之间进行权衡。这种联邦与地方的潜在冲突,使得未来的美国AI监管格局充满变数。但无论如何,各州在AI治理领域的先行探索,不仅是应对当前技术挑战的必要之举,更是对美国联邦制下治理模式韧性与适应性的一次深刻验证,其经验和教训将持续影响并最终塑造美国乃至全球的AI发展与监管未来。