人工智能技术的迅猛发展正引发全球监管机构的关注,而美国近期通过的'美丽法案'(One Big Beautiful Bill)为AI监管格局带来了新的变数。这一法案虽未包含最初提议的州级AI监管暂缓条款,但其影响深远,值得我们深入探讨。
AI监管的时机困境
在AI技术发展初期,监管面临着两难选择:过早监管可能阻碍创新,过晚监管则可能带来风险。作者认为,当技术尚处于新兴且未被充分理解阶段时,正是反竞争性监管最容易通过的危险时期。
技术发展初期的监管风险
AI技术发展初期呈现出典型的阶段性特征:
认知空白期:新技术尚未被充分理解,企业可以夸大其益处或危险,传统和社交媒体难以有效核实这些说法,往往直接复述企业观点。
炒作与恐慌期:基于对AI危险性的夸大宣传,出现炒作和恐慌现象。部分企业利用这一机会推动反竞争立法,阻碍开源和其他竞争对手发展。
理性认知期:随着监管机构对AI了解加深,开始认识到其实际益处和风险。例如,美国国会两党AI洞察论坛听取了多方意见,最终支持创新并摒弃了不切实际的'AI接管'等恐惧。
欧盟AI监管的启示
欧盟的AI法案(AI Act)经历了从严格监管到适度放松的过程,为美国提供了宝贵经验。法案通过后,许多监管者意识到其'保护'措施并非真正有效,随后放宽了部分条款,以减少对创新的过度限制。
州级监管的潜在问题
与联邦政府相比,各州在AI监管方面面临资源限制,难以深入理解技术细节,这导致了许多监管提案存在缺陷,特别是那些针对技术而非应用的法规。
加州SB 1047法案的教训
加州的SB 1047法案旨在对前沿AI系统施加安全要求,但它对模型创作者设置了模糊且技术上不可行的要求,以防止有害的下游使用。这类似于如果有人用锤子造成伤害,就要追究锤子制造商的责任。幸运的是,州长加文·纽森否决了该法案。
纽约和德州的监管尝试
纽约的《负责任AI安全与教育法》也对模型构建者设置了模糊且不合理的要求,据称是为了防范理论上的'关键危害'。该法案将阻碍开源发展,而不会真正提高安全性。
德克萨斯州的《负责任AI治理法》最初包含了SB 1047的许多问题元素,但随着监管者对AI理解的深入,该法案被大幅修改,最终聚焦于具体应用领域,建立了咨询委员会和监管沙盒,并将更多责任放在政府机构而非私营企业身上。
监管与创新的平衡
作者认为,目前提出的监管措施总体影响是负面的,尽管它们带来了一些较小的积极效益。这正是州级监管暂缓本应带来的净效益——在有限时期内暂停不良监管,给予监管机构时间了解AI技术,忽视不负责任的恐慌宣传,并避免创造企业难以遵守的州级监管拼凑体系。
更合理的监管路径
或许10年的全面暂缓过于激进,一个更温和的方案——例如2年的暂缓,且仅覆盖最成问题的监管提案——可能更有机会获得通过。
智能监管的关键原则
有效的AI监管应遵循以下原则:
基于应用而非技术:监管应针对具体应用场景,而非技术本身。
循序渐进:随着对技术理解的深入,逐步调整监管框架。
平衡创新与安全:在确保安全的同时,避免过度限制创新。
资源合理分配:监管机构需具备足够资源和技术理解能力。
国际合作:协调全球监管标准,避免监管套利。
未来展望
尽管暂缓监管条款未纳入'美丽法案',作者希望在美国及其他国家继续努力,给予监管机构时间了解AI的真实风险和收益,避免在技术发展初期——即恐慌宣传力量最强的时候——通过限制性法规。
AI监管不仅是技术问题,更是社会选择。我们需要在保护公众利益的同时,为创新留出空间。正如作者所言,'Keep building!'——在明智监管的框架下,继续推动AI技术的发展和应用。
结语
美国'美丽法案'的通过标志着AI监管进入新阶段。州级监管的碎片化问题亟待解决,而监管机构需要更多时间理解AI技术的真实面貌。未来的AI监管应当是动态的、基于证据的,并且能够在保护公众利益与促进创新之间找到恰当平衡点。只有这样,我们才能确保AI技术真正造福人类社会,而非成为创新和发展的阻碍。