联邦缺位下的州级AI监管浪潮
随着人工智能技术以前所未有的速度渗透到社会经济的各个角落,对其进行有效规制的需求日益迫切。然而,在美国联邦政府层面,一套全面而统一的AI监管框架仍未能成形。在此背景下,美国各州政府主动承担起先行者的角色,通过密集的立法行动,积极为AI技术的发展划定“护栏”。据统计,仅在2025年,全美所有50个州都已提出或正在审议与AI相关的立法议案,这表明州级层面已成为美国AI治理实践的核心动力。联邦层面对州级AI监管的干预提案遭到否决,进一步巩固了各州在这一领域的自主权。
这种自下而上的监管模式,虽然在一定程度上避免了联邦层面的僵局,但也引发了关于其长期有效性和潜在挑战的讨论。各州因其独特的社会经济结构和政治考量,可能出台差异化的法规,形成一个碎片化的监管图景。这不仅可能增加AI技术开发商和部署者的合规成本,也可能导致监管套利,即企业选择在监管环境更为宽松的州开展业务。尽管如此,州级立法所展现出的灵活性和对地方具体问题的快速响应能力,使其在当前联邦缺位的情况下,成为不可或缺的AI治理力量。当前州级立法的核心关注点主要集中在以下四个关键领域:政府部门的AI应用、医疗健康领域的AI技术、面部识别与监控技术,以及日益普及的生成式AI。
政府AI应用的风险与规制
在公共服务领域,AI技术的应用正日益广泛,从协助社会福利资格认定到为刑事司法判决和假释提供建议,预测性AI在提升政府效率方面展现出巨大潜力。然而,政府部门对AI的广泛采用也带来了潜在的、巨大的隐性成本。其中最令人担忧的是算法决策过程中可能出现的偏见,尤其是在涉及种族和性别等敏感属性时,这种偏见可能导致对特定群体的歧视,从而加剧社会不公。
例如,在社会服务分配中,如果AI系统基于历史数据进行决策,而这些数据本身就反映了社会不公,那么AI的决策可能会固化甚至放大这些不公。在刑事司法领域,算法可能因训练数据中的种族偏见而对少数族裔的被告做出更严厉的量刑建议,这与公平正义的原则背道而驰。这类“算法危害”的普遍存在,使得对公共部门AI的监督和负责任使用显得尤为关键。
针对这些风险,各州立法机构纷纷出台法案,旨在规范公共部门的AI使用。这些立法强调透明度、消费者保护和识别AI部署的固有风险。例如,科罗拉多州的《人工智能法案》就对那些开发和部署用于做出“重大决策”的AI系统的开发者提出了透明度和披露要求。这包括要求开发者公开AI系统的运作原理、评估其潜在风险以及如何缓解这些风险。蒙大拿州的“计算权”法案则要求AI开发者在关键基础设施领域部署AI系统时,必须采用风险管理框架,确保在开发过程中充分考虑安全性和隐私问题。纽约州的SB 8755法案等更是设立了专门的机构来提供监督和监管权限,以确保AI技术在公共领域的应用符合伦理规范和公共利益。
加利福尼亚州议会大厦,多个州级AI监管努力的发生地。
医疗健康领域的AI伦理与监管挑战
AI在医疗健康领域的应用前景广阔,从疾病诊断、药物研发到个性化治疗方案,都可能带来颠覆性的变革。然而,其高风险性也要求严谨的监管。2025年上半年,已有34个州提出了超过250项与医疗AI相关的法案,这些法案主要围绕以下四个核心类别展开:
- 披露要求: 旨在确保AI系统开发者和部署机构能够清晰、准确地披露其AI系统的功能、局限性、训练数据来源以及潜在风险。这对于医疗专业人员和患者理解AI辅助决策的依据至关重要。
- 消费者保护: 旨在防止AI系统对特定人群造成不公平歧视,并确保患者在使用AI辅助诊断或治疗方案时,享有质疑和申诉的权利。例如,防止AI算法因数据偏见而对某些患者群体提供次优的治疗建议。
- 保险公司使用AI的监管: 针对保险公司利用AI技术评估医疗审批和支付的决策过程进行监督。目的是确保AI决策的公平性、透明度,避免对患者福利造成不当影响,如无故拒绝或限制服务。
- 临床医生使用AI的规范: 规范医生和其他临床专业人员在诊断和治疗患者时使用AI工具的方式。这包括对AI工具的验证要求、使用指引以及如何将AI建议与人类专业判断相结合,以确保患者安全和治疗质量。
这些法案的共同目标是确保医疗AI技术的安全、有效和公平应用,最大程度地发挥其潜力,同时最大限度地降低潜在风险,保护患者的健康权益和个人数据隐私。特别是在AI辅助诊断和决策中,如何平衡算法效率与人类专业判断,并确立责任归属,是当前监管面临的关键挑战。
面部识别技术:隐私、偏见与公民自由
面部识别技术因其在预测性警务和国家安全领域的广泛应用,引发了深刻的隐私和公民自由担忧。根据美国长期存在的法律原则,个人自治权应受到保护,免受政府干预,这同样适用于面部监控。然而,面部识别软件已多次被指出存在显著的偏见,尤其是在识别有色人种时,其准确性明显低于识别白人面孔。计算机科学家乔伊·布奥拉姆维尼(Joy Buolamwini)和蒂姆尼特·格布鲁(Timnit Gebru)的开创性研究证实,面部识别软件对黑人和其他历史上处于弱势地位的少数民族构成了重大挑战,深色面孔被正确识别的可能性更低。这种偏见不仅源于算法本身的设计,也与用于训练这些算法的数据集缺乏多样性,以及开发团队的构成不均衡密切相关。
算法偏见可能导致无辜公民被错误识别、被不公平地列入监控名单,甚至引发错误的逮捕。这不仅侵犯了公民的隐私权,也可能加剧社会不信任,破坏法治的公正性。因此,各州政府已将面部识别技术的监管提上议程。截至2024年底,美国已有15个州通过立法限制面部识别的潜在危害。这些州级法规的一些关键要素包括要求供应商发布偏见测试报告、详细说明数据管理实践,以及在使用这些技术时必须有人工审查的参与。这些举措旨在通过增加透明度和引入人工监督,来减轻算法偏见的影响,保障公民的基本权利不受侵犯。
生成式AI与基础模型:数据透明度与知识产权
生成式AI的飞速发展及其在内容创作、客户服务等领域的广泛应用,也引起了许多州立法者的关注。核心问题在于,这些强大的AI模型——尤其是那些在海量数据集上训练,能够适应广泛任务的“基础模型”——其训练数据来源往往不透明,这引发了复杂的知识产权和版权侵权问题。
例如,犹他州的《人工智能政策法案》要求个人和组织在使用生成式AI系统与他人互动时,若对方询问是否正在使用AI,必须明确披露。虽然该法案后来将范围缩小到涉及提供建议或收集敏感信息的互动,但其核心精神是强调AI交互的透明度。加利福尼亚州通过的AB 2013生成式AI法案则更进一步,要求开发者在其网站上公开用于训练AI系统(包括基础模型)的数据信息。长期以来,AI开发者在训练数据的使用上一直缺乏透明度,这使得版权所有者难以追溯其内容是否被未经授权用于AI模型的训练。此类立法有望帮助内容创作者维护其知识产权,克服数据不透明带来的挑战,确保数字时代的创新与创作者权益并行不悖。
然而,关于生成式AI的知识产权问题远不止于此。AI生成的艺术作品、文本甚至音乐,其版权归属问题仍在全球范围内引发激烈讨论。是归属于模型的开发者、提示词的提供者,还是完全不具备版权?各州在探索这些问题时,正试图在鼓励AI创新和保护人类创造力之间找到平衡点,这无疑是一项复杂且艰巨的任务。
各州立法:碎片化监管的挑战与前景
在联邦层面未能构建统一且全面的立法框架的情况下,各州政府正通过各自的立法努力来填补这一监管空白。虽然这种“碎片化”的法律拼图无疑会增加AI开发商和部署者的合规复杂性和成本,但不可否认的是,各州在隐私保护、公民权利维护和消费者保护方面提供了重要且必要的监督。
这种州级先行策略的优势在于其能够更灵活地应对地方性的特定问题和需求,并作为不同监管路径的“试验田”。例如,某个州可以先行探索一套针对算法偏见的测试和审计标准,如果效果良好,其他州可能会借鉴采纳,甚至最终影响到联邦层面的立法走向。然而,这种碎片化也可能导致监管的壁垒,阻碍AI技术在全国范围内的顺畅流通和规模化应用。企业可能需要在每个州都投入资源来理解并遵守不同的法律要求,这对于初创企业和中小型AI公司来说是巨大的负担。
值得关注的是,美国前任政府曾于2025年7月23日发布《美国AI行动计划》,其中明确指出联邦政府不应将AI相关联邦资金导向那些拥有“繁重AI法规”的州。这一表态为未来的州级AI立法蒙上了一层不确定性。各州在制定法规时,可能需要权衡其法规的严格程度与获取联邦资金之间的关系,这无疑会进一步复杂化州级AI监管的生态系统。这种联邦与州之间的潜在摩擦,凸显了在AI治理这一全球性议题上,美国国内协调一致的监管策略仍面临诸多挑战。
展望未来,美国AI监管的演进将是一个动态而复杂的过程。各州在推动立法进步的同时,也需要考虑如何协调彼此的法规,以减少碎片化带来的负面影响。同时,联邦政府最终是否会介入并提供一个国家层面的统一框架,以及该框架将如何平衡创新与监管、效率与公平,都将深刻影响AI技术在美国乃至全球的发展轨迹。当前,州级层面的探索为全球AI治理提供了宝贵的经验,其成功与挑战都将成为未来AI法规设计的重要参考。