人工智能时代的治理探索:美国各州立法的深度解析
人工智能技术正以惊人的速度重塑社会结构与经济形态,其深远影响促使全球各国政府积极探讨如何有效监管这一颠覆性力量。在美国,由于联邦层面缺乏全面统一的AI监管框架,各州政府正以前所未有的速度和广度推动各自的AI立法进程。这种自下而上的监管模式,在填补联邦空白的同时,也塑造出独特的美国式AI治理图景。2025年,全美50个州都提出了与AI相关的立法,这不仅体现了对技术发展的敏锐洞察,更彰显了各州在保护公民权益、促进技术创新方面的决心。
联邦政府在AI监管上的谨慎态度,部分源于其对创新活力和跨州贸易的考量。然而,随着AI技术渗透到社会生活的方方面面,潜在的风险和挑战也日益凸显。例如,算法偏见可能导致不公,数据隐私泄露可能损害个人权利,以及自动化决策可能缺乏透明度和可解释性。正是在这样的背景下,各州开始主动承担起监管责任,试图通过立法实践为AI应用划定界限,确保技术向善发展。国会此前否决了一项禁止州级AI立法的提案,这进一步为各州放手探索提供了政策空间。
目前,州级AI立法主要聚焦于以下四个关键领域:公共部门对AI的应用、AI在医疗健康领域的部署、面部识别技术的使用,以及生成式AI与基础模型的规制。这些领域不仅是AI应用最广泛、影响最深远的场景,也是算法风险和伦理挑战最为突出的前沿阵地。
公共部门AI应用的规制与透明化
在公共服务领域,预测性AI(Predictive AI)已被广泛应用于政府职能的各个环节,从社会福利资格认定到刑事司法量刑和假释建议。这些AI系统通过对海量数据进行统计分析和模式识别,旨在提升决策效率和准确性。然而,其广泛使用也带来了潜在的“算法危害”,尤其是算法偏见可能导致对特定人群(如种族、性别)的不公平待遇。例如,一份针对某城市公共住房分配系统的分析报告显示,由于训练数据中存在历史偏见,AI在分配优先级时无意中倾向于某些群体,导致资源分配出现结构性不公,这正是算法盲区与社会现实复杂交织的典型案例。
为应对此类风险,各州立法机构正积极引入相关法案,旨在规范公共部门AI的使用,重点关注透明度、消费者保护和风险识别。例如,科罗拉多州的《人工智能法案》就要求那些开发或部署涉及“重大决策”的AI系统的开发者,必须披露其系统的潜在风险并确保透明度。这意味着,在AI辅助的决策过程中,相关方需要明确告知公众AI参与的程度、决策逻辑以及可能带来的影响。蒙大拿州新颁布的“计算权法”(Right to Compute law)则进一步要求AI开发者针对关键基础设施领域的AI系统,采纳严格的风险管理框架。这通常涉及在开发初期就融入安全与隐私考量,通过系统性的方法识别、评估并缓解潜在风险,确保AI系统在关键领域的稳健运行。此外,纽约州的SB 8755法案等也建立了专门的监督机构,赋予其对公共部门AI应用进行监管和授权的权力,这标志着州层面开始构建更具体系化的治理结构。
医疗健康领域AI的伦理与安全考量
医疗健康是AI应用前景广阔但风险尤为敏感的领域。2025年上半年,全美34个州共提出了超过250项与AI相关的医疗健康法案,这些法案通常可以归类为四大方面:披露要求、消费者保护、保险公司AI使用规范,以及临床医生AI使用规范。
披露要求旨在强制AI系统开发者和部署机构公开AI系统的性能、局限性、训练数据来源、偏见评估结果以及更新迭代周期等关键信息。这有助于医疗机构和患者更全面地理解AI工具的能力边界,避免过度依赖或误用。
消费者保护条款致力于防止AI系统在医疗决策中产生歧视,例如,确保患者不会因其社会经济地位、种族或性别而受到不公平的诊断或治疗建议。同时,这类法案通常赋予患者对其健康决策中AI参与部分的知情权和质疑权,并提供有效的申诉机制。
保险公司AI使用规范则关注如何监督支付方利用AI来审批医疗服务或评估费用。例如,一些AI系统可能被用于识别“高风险”患者或“不必要”的治疗,但如果这些系统存在偏见,可能会导致某些患者难以获得所需的医疗服务。因此,州立法旨在确保保险公司的AI决策过程透明、公正,并允许人工干预和审查。
临床医生AI使用规范则聚焦于AI在诊断和治疗中的应用。例如,对AI辅助诊断系统的准确性、可靠性进行认证,并明确医生在使用AI工具时的责任边界。这不仅关乎患者安全,也涉及到医生与AI协同工作模式的伦理考量。例如,一家医院在引入AI辅助诊断系统后,虽然提升了诊断效率,但随后发现该系统在处理罕见病症或非典型病例时,其表现不如人类专家。这促使该州立法机构开始探讨,如何在鼓励AI应用的同时,强制要求AI系统必须具备明确的“人类在环”审查机制,确保关键医疗决策最终由经验丰富的医生拍板,从而平衡效率与风险。
面部识别与监控技术的隐私边界
面部识别技术(Facial Recognition Technology, FRT)在公共安全、边境控制和预测性警务中的广泛应用,引发了深刻的隐私和公民自由担忧。美国法律长期以来强调保护个人自主权免受政府干预,而FRT的普及使得政府能够大规模、无感知地收集和分析个人生物特征数据,这无疑对传统隐私观念构成了挑战。更令人担忧的是,FRT普遍存在的算法偏见,尤其是对肤色较深的人群识别准确率较低的问题,可能导致执法过程中出现系统性歧视。
由计算机科学家Joy Buolamwini和Timnit Gebru开创性研究揭示,多数面部识别软件在识别非洲裔等有色人种面孔时表现出显著的准确性下降。这种偏见并非偶然,往往源于训练数据的不平衡,以及开发团队在背景和视角上的单一性。例如,一份假想的审计报告可能会显示,某地警方部署的FRT系统在过去一年中,对非洲裔嫌疑人的误报率是非洲裔白人嫌疑人的三倍,这直接导致了不必要的盘查和拘留,严重侵犯了公民权利。
截至2024年底,美国已有15个州通过立法限制FRT的潜在危害。这些法规通常要求供应商公布偏见测试报告和数据管理实践,以增强透明度和可问责性。此外,许多州还强调在使用FRT时必须有人工审查环节,以纠正或验证AI的判断,防止算法偏见导致不公。例如,一些州规定,除非获得法院授权,否则禁止执法机构在实时监控中使用FRT进行大规模人脸识别。这种谨慎的态度反映了立法者在技术便利性与公民权利保护之间的权衡。
生成式AI与基础模型的透明度挑战
生成式AI(Generative AI)的迅猛发展,尤其是大语言模型和基础模型的普及,对版权、数据隐私和信息真实性带来了新的挑战。立法者们普遍关注,如何确保生成内容的可追溯性和训练数据的合规性。
犹他州的《人工智能政策法案》最初要求当个人或组织使用生成式AI系统与他人互动时,若对方询问,则必须明确披露AI的存在。尽管该法案后续将范围缩小到涉及提供建议或收集敏感信息的互动场景,但其核心精神仍在于增强AI互动的透明度。这有助于消费者识别AI生成的内容,并对其可信度做出判断。
加利福尼亚州在2024年通过的AB 2013法案则要求生成式AI系统(包括基础模型)的开发者在其网站上公布用于训练AI系统的数据信息。基础模型是指那些在海量数据集上训练,并能适应广泛任务而无需额外训练的AI模型。传统上,AI开发者对于其训练数据来源讳莫如深,这使得内容原创者难以追究其作品是否被未经授权地用于AI训练。加州的这项立法有望为版权所有者提供必要的透明度,从而更好地维护其合法权益。例如,一位摄影师发现其大量受版权保护的图像被用于某知名生成式AI模型的训练,但由于缺乏模型训练数据的公开信息,难以有效维权。加州的法案则为这类情况提供了法律依据,促使AI公司承担起数据使用的责任。
联邦与各州AI治理的博弈与未来展望
在缺乏全面联邦立法框架的背景下,各州积极推进各自的立法努力,这在一定程度上填补了AI监管的空白。虽然这种“碎片化”的法律格局可能会增加AI开发者的合规成本和复杂性,但它也带来了独特的优势:各州可以作为“民主实验室”,根据地方特点和民众需求,探索不同的监管路径,从而为未来更广泛的联邦立法提供宝贵的实践经验和数据支撑。这种多元化的尝试,有助于发现最有效、最平衡的AI治理模式。
然而,联邦与州之间的潜在摩擦不容忽视。2025年7月23日,特朗普政府发布了《美国AI行动计划》,其中明确指出:“联邦政府不应允许将与AI相关的联邦资金,导向那些拥有‘繁重’AI监管的州。”这一举措可能会迫使各州在制定法规时,权衡其法规的严格性与获得联邦资金的必要性,从而可能在一定程度上阻碍一些州在AI监管上的积极探索。这种联邦层面的导向,可能使得一些州为了避免失去资金支持,而对自身AI立法有所保留,从而影响整体监管效能。
展望未来,美国AI监管的道路将是一场持续的平衡艺术。在技术飞速发展、应用场景日趋复杂的背景下,一套能够有效保护公民权益、激发创新活力、同时又具备足够灵活性以适应未来变化的AI治理体系至关重要。这不仅需要各州之间加强协调与信息共享,也需要联邦政府与各州之间建立更为有效的对话机制。最终,一个既能保障技术安全与伦理,又能推动AI负责任创新的统一而又灵活的框架,将是美国在智能时代实现持续繁荣的关键。