地方先行:美国各州如何构建AI监管“护城河”?联邦政策缺位下的创新与挑战

2

州际先行:美国AI监管图景的多元构建

当前,人工智能(AI)技术的飞速发展对社会各领域带来了深刻变革,与此同时,也引发了前所未有的监管挑战。在美国,由于联邦层面尚未形成统一且全面的AI立法框架,各州政府正积极填补这一空白,成为AI监管规则制定的核心力量。这种自下而上的监管模式,在塑造未来AI生态方面扮演着至关重要的角色,尤其在预测性AI的广泛应用背景下,各州针对公共部门使用AI、医疗健康、面部识别以及生成式AI等关键领域,展现出显著的立法能动性。

公共部门AI的伦理与透明

在公共服务领域,预测性AI的应用日益普遍,从社会福利资格判定到刑事司法量刑建议,AI正在重塑政府职能。然而,算法决策的广泛采纳也带来了潜在的“算法危害”,如种族和性别偏见,这些隐性成本可能导致不公平甚至歧视性结果。因此,对公共部门AI的监督和负责任使用显得尤为关键。各州立法机构已认识到算法偏见可能带来的风险,并引入了强调透明度、消费者保护和风险识别的法案。例如,科罗拉多州的《人工智能法案》要求涉及“后果性决策”的AI系统开发者和部署者披露其系统的潜在风险和局限性。蒙大拿州的“计算权法案”则进一步要求AI开发者针对关键基础设施中的AI系统采纳严格的风险管理框架。这些举措旨在确保政府使用AI时能够保持算法的公正性、决策过程的透明度,并为受影响的公民提供有效的申诉渠道,从而在提升效率的同时,最大程度地规避潜在的社会公平性风险。纽约州的某些法案甚至设立了专门的机构来提供持续的监督和监管授权,这标志着各州在建立健全的公共部门AI治理结构方面,正从单一披露向系统性监管迈进。

医疗AI的精准与安全

医疗健康领域是AI应用最具潜力的场景之一,但也伴随着独特的监管复杂性。2025年上半年,美国已有34个州提出了超过250项与医疗AI相关的法案,这些法案主要围绕信息披露、消费者保护、保险公司和临床医生对AI的使用展开。关于透明度的法案旨在确保AI系统开发者和医疗机构公开AI的工作原理、训练数据来源以及潜在局限性,从而让患者和医生能够充分了解其决策依据。消费者保护法案则致力于防止AI系统产生不公平的歧视,并保障患者有权对AI做出的诊断或治疗建议提出质疑和复审。针对保险公司的法案则旨在监督其利用AI进行医疗审批和支付决策的过程,确保公平性和合理性,避免因算法缺陷而导致患者权益受损。此外,关于临床AI应用的法案则侧重于规范AI在疾病诊断、治疗方案制定以及药物研发等方面的使用,强调AI作为辅助工具而非替代人类专业判断的角色,确保医疗专业人员始终掌握最终决策权,并对AI系统的临床表现进行严格验证,以保障患者安全和医疗质量。

面部识别技术的隐私与公正

面部识别技术因其在警务预测和国家安全领域的广泛应用,引发了深刻的隐私和公民自由担忧。美国长期存在的法律原则强调保护个人自治免受政府干预,而面部识别技术恰恰对此构成了显著挑战。研究表明,该技术可能对有色人种存在偏见,导致识别准确率下降,从而威胁到公民权利。例如,某项开创性研究发现,面部识别软件在识别深色肤色人脸时表现出较低的准确率。这种偏见的根源往往在于用于训练算法的数据缺乏多样性,以及开发团队本身的多样性不足。到2024年底,美国已有15个州颁布法律,旨在限制面部识别技术的潜在危害。这些州级法规的要素包括要求供应商发布偏见测试报告、公开数据管理实践,以及在使用这些技术时必须有人工审查的参与。这些规定不仅有助于提升面部识别系统的透明度和公平性,也为未来更全面的隐私保护立法奠定了基础,反映出在技术进步与公民权利之间寻求平衡的努力。

加州州议会大厦

生成式AI与基础模型的合规挑战

生成式AI的普及也促使许多州的立法者采取行动,以应对其可能带来的版权、虚假信息和隐私泄露等风险。犹他州的《人工智能政策法案》最初要求个人和组织在使用生成式AI与他人互动时,如果被询问,必须明确披露其AI身份,尽管后续立法缩窄了这一范围,仅限于涉及提供建议或收集敏感信息的互动。这反映出立法者在平衡AI创新与消费者保护之间的审慎态度。此外,加利福尼亚州去年通过的AB 2013法案,要求AI开发者(包括基础模型开发者)在其网站上公布用于训练其AI系统的数据信息。鉴于AI开发者通常对训练数据来源保持不透明,此类立法将有助于内容版权所有者更好地了解其作品是否被用于AI训练,从而在数字版权保护方面迈出了重要一步。基础模型因其庞大的训练数据量和广泛的适应性而备受关注,其数据来源的透明度对于版权归属和内容侵权责任的认定至关重要。各州的探索性立法,无疑为未来更复杂的生成式AI版权和数据治理问题提供了宝贵的实践经验。

加州州议会大厦

联邦与州:AI监管的动态博弈与未来展望

在缺乏统一联邦立法框架的背景下,各州通过各自的立法努力来弥补这一监管空白,其积极作用不容忽视。尽管这种“碎片化”的法律体系可能增加AI开发者的合规复杂性,但它同时也为AI监管提供了多元化的实验场,允许各州根据其独特的经济结构、社会需求和价值观,探索最适合的治理模式。这种自下而上的创新,有助于发现并推广更有效的监管实践,同时也能更灵活地应对AI技术迭代带来的新挑战。然而,美国联邦政府,特别是特朗普政府于2025年7月23日宣布的“美国AI行动计划”,提出不应将联邦AI相关资金导向那些“繁重”AI监管的州,这无疑给州级立法带来了新的考量。此举可能迫使各州在制定法规时,权衡其监管力度与获得联邦资金的可能性。这标志着一场联邦与地方在AI治理领域的微妙博弈。未来,美国AI监管的发展将是一个持续演进的过程,它将是各州创新实践的累积,也将是联邦政府在国家战略层面如何有效引导并最终可能整合这些地方经验的体现。这种多元互动的模式,既是挑战,也为美国构建一套适应未来AI发展的弹性监管体系提供了独特路径。最终,一个平衡了创新活力与社会福祉的AI监管体系,将需要联邦与各州之间更为协调和共识的努力。