美国'美丽法案'如何重塑AI监管格局:州级立法的挑战与机遇

2

人工智能技术的迅猛发展正引发全球范围内的监管讨论。美国国会近期通过的'美丽法案'(One Big Beautiful Bill)标志着AI监管进入新阶段,然而,该法案未能包含对州级AI监管的暂缓令,引发了业界对创新受限的担忧。本文将深入分析美国各州AI监管的现状、挑战及未来发展方向,探讨如何在保障安全的同时促进AI技术创新。

州级监管的碎片化困境

当前,美国各州正在推进各自的AI监管法案,形成了一个不断变化的监管拼图。这种州级监管模式虽然体现了地方特色,但也带来了诸多问题。

美国各州AI监管法案进展地图

各州监管步伐不一,导致企业面临复杂的合规环境。小型企业和初创公司尤其难以应对这种监管碎片化,它们缺乏资源来跟踪和遵守各州不同的AI监管要求。这种局面不仅增加了合规成本,还可能阻碍跨州业务的发展和创新。

技术理解不足期的监管风险

AI监管面临的核心挑战在于技术发展的速度往往超过监管者的理解能力。在技术新兴且理解不足的阶段,监管者容易受到各种利益相关方的影响,包括那些可能推动反竞争监管的游说团体。

监管演变的典型轨迹

AI监管通常遵循以下发展轨迹:

  1. 初期理解阶段:当新技术尚不被充分理解时,企业可以对其益处或危险做出宏大声明,而传统和社交媒体往往难以有效核实这些声明,倾向于重复这些说法。

  2. 炒作与恐惧蔓延:这为基于夸大AI危险主张的炒作和恐惧营销创造了机会。一些企业利用这一机会试图推动反竞争立法,阻碍开源和其他竞争性AI发展。

  3. 监管成熟阶段:最终,明智的监管者会逐渐了解AI,理解其真实的益处和风险。例如,我参与的美国两党AI洞察论坛听取了多方利益相关者的意见,最终支持创新,摒弃了'AI接管'等毫无根据的恐惧。

欧盟监管经验的启示

欧盟的AI监管历程提供了有价值的参考。AI法案通过后,许多监管者意识到其许多'保护'措施实际上并无帮助。他们随后放松了部分规定,使该法案对创新的阻碍程度低于许多观察者的最初担忧。

这一经验表明,监管需要随着技术理解的深入而调整。过于僵化的监管框架可能无法适应技术的快速变化,最终反而阻碍有益创新。

有效的AI监管原则

并非所有AI监管都是不必要的。一些监管措施能够有效限制有害应用,例如:

  • 禁止未经同意的深度伪造色情内容
  • 防止误导性营销
  • 确保AI系统的透明度和问责制

然而,关键在于监管应针对具体应用而非技术本身。有效的监管应:

  • 基于风险分级,对不同风险级别的AI应用采取不同程度的监管
  • 关注实际应用场景而非抽象的技术特性
  • 保持灵活性,以适应技术的快速发展

各州监管案例分析

加州SB 1047法案

加州SB 1047法案旨在对前沿AI系统施加安全要求,但它对模型创作者设置了模糊和/或技术上不可行的要求,以防止有害的下游使用。这类似于如果有人将锤子用于有害目的,就追究锤子制造商的责任。

幸运的是,州长加文·纽森否决了SB 1047,避免了可能对创新和开源AI造成的损害。

纽约负责任AI安全与教育法案

纽约的负责任AI安全与教育法案已于6月通过州立法机构,等待州长凯西·霍楚尔的签署或否决。该法案同样对模型构建者设置了模糊且不合理的要求,据称是为了防范理论上的'关键危害'。它将阻碍开源发展,而不会使任何人真正更安全。

德州负责任AI治理法案

德州的负责任AI治理法案最初包含了SB 1047的许多有问题的元素。它将创建不合理的要求,模型提供商将难以遵守,而合规将等同于安全剧场,不太可能真正提高安全性。

幸运的是,随着德州监管者对AI的理解加深,他们大幅缩减了该法案的范围,州长格雷格·阿博特于6月下旬将其签署为法律。最终法律专注于特定应用领域,建立了咨询委员会和监管沙盒,并将更多负担放在政府机构而非私营公司身上。

暂缓监管的必要性

基于目前各州提出的监管措施,我认为其总体影响是负面的。许多监管将严重阻碍创新,尽管也有一些较小的积极影响。这就是为什么对州级监管实施暂缓令将是对AI和社会的净收益。

在有限期内停止不良监管将为监管者提供时间来了解AI技术,并忽视不负责任的恐惧营销。此外,这将帮助他们避免创建各州监管的拼图,使大小企业都难以遵守。

或许10年的全面暂缓令走得太远。一个更温和的、比如说2年的暂缓期,并且只涵盖最成问题的监管提案,本可能有更好的通过机会。

未来监管路径建议

尽管暂缓监管未能纳入特朗普的法案,但我希望在美国和其他国家继续努力,为监管者提供时间来理解AI的真实风险和益处,并在技术新颖和恐惧营销力量最强的初始阶段不通过扼杀创新的监管。

分级监管框架

建议采用基于风险的分级监管框架:

  • 高风险应用:严格监管,要求透明度、可解释性和安全评估
  • 中等风险应用:适度监管,要求基本安全措施和用户通知
  • 低风险应用:轻度监管或自我监管

监管沙盒机制

建立监管沙盒,允许创新者在受控环境中测试新技术,同时与监管机构合作制定适当的监管标准。这种方法已在英国等国家取得成功,值得美国借鉴。

跨州协调机制

促进各州之间的监管协调,减少监管碎片化。可以建立跨州工作组,分享最佳实践,并努力制定统一的监管原则,同时保留一定的灵活性以适应地方需求。

结论

AI监管需要在保护公众利益和促进创新之间取得平衡。美国各州的监管努力值得肯定,但必须避免在技术理解不足的情况下制定过于严苛或不当的法规。

通过借鉴国内外经验,建立更加灵活、基于风险的监管框架,美国可以引领全球AI治理,确保这一强大技术以负责任且创新的方式造福社会。监管的最终目标不应是限制技术,而是引导其朝着有利于人类的方向发展。

在AI技术快速演进的今天,监管者需要保持谦逊和开放,愿意根据新证据和经验调整监管方法。只有这样,我们才能构建一个既安全又充满活力的AI未来。