地方主导:美国人工智能监管的新篇章
随着人工智能技术的飞速发展及其在社会各领域的日益渗透,对AI进行有效监管的需求变得前所未有的迫切。然而,在美国,联邦层面至今仍未形成一套全面且具约束力的人工智能立法框架。这种监管真空促使各州纷纷行动起来,成为AI治理的前沿阵地。2025年,全美50个州都已提出了与AI相关的立法议案,这不仅彰显了地方政府对智能技术潜在风险的敏锐洞察,也反映出其在保护公民权益、确保技术负责任发展方面的积极姿态。
联邦政府在AI监管上的谨慎态度,部分源于对创新阻碍的担忧,以及技术复杂性带来的立法挑战。然而,这种“等待观望”的策略使得各州不得不自行摸索,以应对AI在公共服务、医疗、安全乃至日常互动中带来的新问题。各州采取的行动并非孤立的,它们正逐步构建起一个多元化、层级化的AI治理图景,聚焦于政府内部AI应用、医疗健康AI、面部识别技术以及新兴的生成式AI等核心领域。
政府AI应用:规范公共部门的智能决策
人工智能在公共部门的应用,特别是预测性AI,已深刻改变了政府的运作模式。从社会福利资格的自动化判定,到刑事司法量刑和假释建议的生成,AI的引入旨在提高效率、优化资源配置。然而,这种广泛的算法决策也伴随着巨大的隐性成本和潜在风险。最为突出的问题是算法偏见,它可能导致特定群体(如少数族裔、低收入群体)面临歧视性待遇,进而加剧社会不公。
认识到算法可能带来的危害,许多州立法机构已将公共部门AI的使用纳入监管重点。这些法案普遍强调透明度、消费者保护和风险识别,力求在AI提高公共服务效率的同时,最大限度地降低负面影响。例如,科罗拉多州的《人工智能法案》要求涉及“重大决策”的AI系统开发者和部署者,必须披露其系统的风险,并确保决策过程的透明度。这意味着,AI系统不仅仅是一个“黑箱”,其内部逻辑和潜在影响必须向公众和监管机构负责。
此外,蒙大拿州的“计算权法”则侧重于关键基础设施中AI系统的风险管理框架,要求开发者采取预防性措施,确保AI系统在关键领域运行的稳定性和安全性。纽约州的一些提案则更进一步,主张设立专门的机构来提供监督和监管权限,形成常态化的AI治理机制。这些举措旨在确保政府在使用AI技术时,能够对其潜在的偏见和不准确性进行充分评估和缓解,从而维护公共服务的公正性和可靠性。
医疗健康AI:保障生命与福祉的智能边界
在2025年上半年,全美34个州共提出了超过250项与医疗AI相关的法案,这表明医疗健康领域是州级AI监管的另一个核心焦点。这些法案大致可分为四大类别:披露要求、消费者保护、保险公司AI使用规范以及临床医生AI使用规范。
- 披露要求:此类别法案旨在强制AI系统开发者和医疗机构公开AI在医疗决策中的参与程度。例如,当一个诊断结果由AI辅助生成时,患者有权知晓这一信息。这不仅增加了透明度,也为患者提供了知情选择的权利。
- 消费者保护:这类法案着力于防止AI系统在医疗服务中产生不公平的歧视,例如,基于算法预测的健康风险评估可能导致特定人群难以获得医疗资源。同时,法案也强调赋予患者对AI决策提出异议和寻求人工复核的权利,确保最终决策的公正性和人性化。
- 保险公司AI使用规范:保险公司日益依赖AI来审批医疗服务或处理索赔。相关法案旨在对此类AI应用进行严格审查,防止保险公司利用算法拒绝合理的医疗请求或不当减少赔付,从而损害患者利益。
- 临床医生AI使用规范:这些法案关注AI在疾病诊断、治疗方案制定和药物管理等临床实践中的应用。州政府试图通过立法来规范AI辅助工具的使用标准,确保医生在采纳AI建议时仍保持最终的专业判断,并对治疗结果负责,避免过度依赖AI导致医疗失误。
通过这些多维度的立法,各州致力于构建一个既能利用AI提升医疗效率和准确性,又能有效保护患者隐私、确保医疗公正性的智能医疗生态系统。
面部识别与监控:平衡安全与隐私的挑战
面部识别技术因其在公共安全、执法和商业领域的广泛应用而引发了深刻的隐私和公民自由担忧。美国长期以来的法律原则强调保护个人自主权免受政府干预,而面部识别技术恰恰在这一领域构成了显著挑战。尤其值得关注的是,该技术存在的偏见问题,特别是对有色人种的识别准确率较低,可能导致不公正的监控和执法,从而侵犯公民权利。
例如,研究表明,面部识别软件在识别肤色较深的人脸时,其准确性明显低于识别肤色较浅的人脸。这种偏见不仅源于算法本身的设计缺陷,也与训练数据集缺乏多样性密切相关。当开发团队缺乏背景和文化的多样性时,其算法很可能在无意中复制并放大了社会中已存在的偏见。这种算法偏见的后果是严重的,可能导致无辜者被错误识别、错误逮捕,甚至被剥夺公民自由。
截至2024年底,美国已有15个州颁布了法律,旨在限制面部识别技术可能带来的危害。这些州级法规通常包含以下要素:要求供应商发布偏见测试报告,详述其算法在不同人口群体上的表现;规定数据管理实践,确保面部数据得到负责任的收集、存储和使用;以及强调在关键决策中使用面部识别技术时必须有人工审查的环节。这些规定旨在确保技术在服务社会安全的同时,不以牺牲公民基本权利为代价,尤其要避免对弱势群体的歧视。
生成式AI与基础模型:应对内容创作与版权新挑战
生成式人工智能的快速普及,特别是大型语言模型和基础模型的发展,引发了立法者在内容版权、虚假信息传播以及数据透明度方面的新一轮担忧。基础模型,作为在海量数据集上训练、能够适应广泛任务的AI模型,其训练数据的来源和使用方式尤为关键。
各州已开始着手解决生成式AI带来的独特问题。例如,犹他州的《人工智能政策法案》最初要求个人和组织在与用户互动时,如果用户询问是否使用了生成式AI,必须明确披露。尽管该法案后续将适用范围限缩至涉及提供建议或收集敏感信息的互动,但其核心精神——即增强AI互动透明度——依然存在。这对于消费者了解其所接收信息的性质,以及确保决策的公正性至关重要。
加利福尼亚州在去年通过的AB 2013法案则更进一步,要求生成式AI的开发者在其网站上公布用于训练AI系统(包括基础模型)的数据信息。长期以来,AI开发者对于其训练数据的来源往往语焉不详,这使得内容版权所有者难以追溯其作品是否被用于AI训练。加州的这项立法有望改变这一现状,为版权所有者提供了寻求保护和维权的依据,同时也促使AI行业提升其数据使用的透明度和负责任程度。这对于平衡技术创新与知识产权保护具有深远意义。
州级立法的复杂性与联邦协调的必要性
在缺乏统一联邦框架的情况下,各州努力填补AI监管空白,无疑是积极且必要的。这种“自下而上”的监管模式,允许各州根据其独特的经济、社会和技术发展情况,制定更具针对性和灵活性的法规。这在一定程度上能够促进监管创新,并作为未来联邦立法的试验田。然而,这种碎片化的监管格局也给AI开发者带来了显著的合规挑战。
面对50个州可能存在的不同甚至冲突的法规,AI公司在进行产品设计、部署和运营时,必须应对日益增长的复杂性。这可能导致合规成本增加,甚至阻碍跨州的技术推广和创新。此外,这种“碎片化”还可能导致“监管套利”现象,即公司选择在监管较宽松的州设立业务,从而规避更严格的要求。
值得关注的是,联邦政府并非完全无动于衷。例如,2025年7月23日,前总统特朗普政府公布了其《美国AI行动计划》,其中提出联邦政府不应将与AI相关的联邦资金导向那些“负担过重”的AI监管州。尽管这旨在鼓励创新,但从另一个角度看,它可能对州级立法努力构成潜在阻碍。各州在制定严格的AI法规时,将不得不权衡其与联邦资金的潜在关系,这使得AI监管的政治博弈变得更加复杂。
最终,尽管州级立法在当前扮演着关键角色,但为了构建一个高效、公平且有利于创新的AI生态系统,美国仍需一个协调一致的联邦框架。这可能意味着联邦政府需要在未来采纳各州在实践中行之有效的监管模式,或者通过激励机制促进州际间的法规协调。唯有如此,才能在保障公民权益、应对技术风险与促进AI负责任创新之间找到最佳平衡点。