美国人工智能监管:州政府的角色与联邦政策的博弈
随着人工智能技术在全球范围内的迅速崛起与广泛应用,其所带来的伦理、安全、隐私及社会公平挑战日益凸显。在全球各国积极探索AI监管之道时,美国展现出一种独特的自下而上模式:在联邦层面尚未形成统一且全面的法律框架之际,各州政府正以前所未有的速度和广度,主导着AI监管规则的制定与实践。这不仅反映了对技术潜在风险的敏锐洞察,也凸显了美国联邦制下权力分配的复杂性,以及州层面在弥补监管空白方面的关键作用。
今年,美国全部50个州都提出了与AI相关的立法议案,这无疑是一个惊人的数字,充分表明了州政府在AI治理问题上的积极姿态和紧迫感。联邦政府目前对于州级AI监管采取了回避态度,甚至在国会层面否决了一项旨在暂停州级AI立法的提议,这无疑为各州继续填补监管空白提供了政策空间。然而,这种碎片化的监管图景也带来了新的挑战,例如可能导致企业合规成本增加,以及监管套利现象的出现。
当前,州层面的AI监管议程主要聚焦于以下四个核心领域:政府对AI的使用、医疗健康领域的AI应用、面部识别技术,以及生成式AI。
政府部门对AI的应用规范
在公共服务领域,AI的透明度与负责任使用尤为关键。预测性AI,通过对海量数据的统计分析来作出预测,已深刻改变了诸多政府职能,从社会福利资格的认定到刑事司法判决与假释建议的给出。然而,这种算法决策的广泛应用可能带来巨大的隐性成本,其中最显著的便是算法偏见所导致的危害,例如种族和性别歧视,这些风险常常隐蔽且难以察觉。
鉴于算法潜在的危害性,各州立法机构已纷纷出台针对公共部门AI使用的法案,尤其强调透明度、消费者保护以及对AI部署风险的识别。例如,科罗拉多州的《人工智能法案》要求涉及重大决策的AI系统开发者及部署者必须公开披露系统风险。蒙大拿州的“计算权利法”则对关键基础设施中使用的AI系统提出了风险管理框架要求。此外,纽约州的SB 8755法案甚至设立了专门的机构来提供监督和监管权限,这标志着州政府正在从立法层面深入到执行和监督层面,力求构建一个更加完善的公共AI治理体系。
医疗健康领域AI监管的四大焦点
2025年上半年,美国有34个州提出了超过250项与AI相关的医疗健康法案,显示出医疗领域AI监管的迫切性。这些法案普遍可归纳为四个主要类别:
- 披露要求:旨在明确AI系统开发者和部署者应公开哪些信息,确保医疗专业人员和患者能够了解AI辅助决策的原理和局限性。
- 消费者保护:着重于防止AI系统对特定人群造成不公平歧视,并确保用户有权对基于AI技术所作出的医疗决策提出申诉,从而保障患者的知情权和申诉权。
- 保险公司AI使用:对保险公司利用AI进行医疗审批和支付决策的行为进行监督,避免算法偏见导致不当拒保或支付不足,维护参保人的合法权益。
- 临床医生AI使用:规范医疗专业人员在诊断和治疗过程中使用AI技术,确保其在辅助决策时能够兼顾专业判断和伦理考量,并将AI工具作为辅助而非替代医疗专业人士的手段。
这些立法努力旨在平衡AI在提升医疗效率和精准度方面的潜力,与保障患者安全、数据隐私和医疗公平性之间的关系,确保AI技术在医疗健康领域的应用能够真正造福于民,而非带来新的风险。
面部识别与监控技术的伦理困境与州级应对
在美国,一项长期适用的法律原则是保护个人自主权免受政府干预,这同样适用于面部监控等隐私保护议题。在此背景下,面部识别技术带来了显著的隐私挑战,同时其固有的潜在偏见风险也不容忽视。该技术广泛应用于预测性警务和国家安全领域,但已被证实对有色人种存在偏见,因此常被视为对公民自由的威胁。
先驱性研究,如计算机科学家乔伊·布奥拉姆维尼(Joy Buolamwini)和蒂姆尼特·格布鲁(Timnit Gebru)的发现,揭示了面部识别软件对非洲裔人群及其他历史上处于劣势的少数群体构成了显著挑战,该软件在识别肤色较深的面孔时准确率较低。这种偏见不仅体现在算法本身,也渗透到用于训练这些算法的数据中,例如,如果指导面部识别软件开发团队的构成缺乏多样性,那么偏见就更容易在算法训练过程中悄然滋生。
到2024年底,美国已有15个州颁布了法律,旨在限制面部识别技术可能带来的危害。州级监管的一些要素包括:要求供应商发布偏见测试报告和数据管理实践,以及在这些技术的使用中必须有人工审查的必要性。这些规定旨在通过增强透明度、引入人类监督和评估算法公平性来降低面部识别技术带来的社会风险。
生成式AI与基础模型的规制探索
生成式AI的广泛应用也引发了许多州立法者的关注。例如,犹他州的《人工智能政策法案》最初要求个人和组织在与他人互动时,如果对方询问是否使用AI,必须明确披露其正在使用生成式AI系统,尽管该法案后续将适用范围限缩至可能涉及提供建议或收集敏感信息的互动。这体现了立法者在平衡技术发展与用户知情权之间的审慎。
去年,加利福尼亚州通过了AB 2013法案,这是一项针对生成式AI的法律,要求开发者在其网站上公布用于训练其AI系统(包括基础模型)的数据信息。基础模型是指那些在超大规模数据集上训练的AI模型,它们无需额外训练即可适应广泛的任务。AI开发者通常对其使用的训练数据守口如瓶,这类立法有助于内容版权所有者应对缺乏透明度的问题,确保其知识产权得到保护,并为未来关于AI训练数据使用的版权纠纷提供法律依据。
联邦缺失下各州填补空白的挑战与展望
在联邦层面缺乏全面立法框架的情况下,各州正通过自身的立法努力来弥补这一空白。尽管这种碎片化的法律体系可能会使AI开发者的合规工作复杂化,但不可否认的是,各州在隐私、公民权利和消费者保护方面提供了重要且必要的监督。这种多点开花的监管模式,允许各州根据自身特点和民众需求进行差异化探索,也为未来联邦层面统一立法的形成积累了宝贵的实践经验。
然而,这种州际差异也可能带来阻碍。例如,前特朗普政府于2025年7月23日发布的《美国AI行动计划》明确指出:“联邦政府不应允许将与AI相关的联邦资金导向那些拥有繁重AI监管的州。”这一举措可能阻碍各州监管AI的努力,因为各州可能需要在被政府定义为“繁重”的监管与急需的联邦AI资金之间进行权衡。这无疑为州政府的监管热情泼了一盆冷水,也凸显了联邦层面在AI治理策略上与州政府之间可能存在的张力。
展望未来,美国AI监管的发展路径仍充满不确定性。一方面,州政府将继续在各自权限内探索和完善AI治理模式,充当技术创新的“监管沙盒”。另一方面,联邦政府在何种程度上介入、如何协调各州差异,以及如何平衡创新与监管之间的关系,将是决定美国AI发展方向的关键因素。一个理想的未来,可能需要联邦政府与各州政府之间形成更有效的沟通与协作机制,共同构建一个既能促进AI健康发展,又能有效防范风险的全国性治理框架。