美国AI监管的州级碎片化挑战与创新困境
近年来,人工智能(AI)技术的飞速发展不仅带来了巨大的社会经济变革潜力,也引发了全球范围内对其监管模式的深刻讨论。在美国,虽然联邦层面已尝试通过“大型美丽法案”等举措来规范AI发展,但令人遗憾的是,该法案未能采纳一项关键提议:暂停各州层面的AI法规制定。这一缺失导致美国面临一个日益碎片化且可能阻碍创新的州级监管格局,其负面影响正逐渐显现。
当一项新兴技术,特别是像AI这样复杂且变革性强的技术问世时,初期往往伴随着对其潜力和风险的广泛误解。在此阶段,各方利益主体,包括企业、研究机构乃至游说团体,都可能利用信息不对称,通过夸大其词的陈述来影响公众认知和政策制定。这种情形下,传统媒体和社交媒体在事实核查方面的能力有限,往往容易成为传声筒,进一步放大某些声音。这为那些意图通过立法壁垒来压制开源或小型竞争者的企业提供了可乘之机,催生出大量可能限制市场竞争、阻碍技术进步的反竞争性法规。
然而,随着时间的推移,明智的监管者会逐步深入了解AI的真实益处与潜在风险。例如,美国参议院两党合作的“AI洞察论坛”便是一个积极的信号。该论坛通过广泛听取各方意见,逐渐形成了支持创新、摒弃“AI接管”等不实恐慌论调的共识。这种学习和适应的过程至关重要,它能帮助监管机构避免制定那些基于错误认知或过度担忧的政策。
欧盟的AI法案也经历了一个类似的发展轨迹。在其最初通过后,许多监管机构逐渐认识到,一些所谓的“保护措施”实际上效用不大。随后,欧盟对部分条款进行了放松,以减轻对创新的束缚,使其不至于像最初许多观察家担心的那样扼杀技术发展。这表明,即使是经验丰富的监管机构,也需要在实践中不断调整和优化其政策。
毫无疑问,我们确实需要针对AI的有害应用进行适当的限制,例如禁止未经同意的深度伪造色情内容,以及有效打击误导性营销行为。这类监管旨在应对AI技术可能带来的具体社会危害,是合理且必要的。然而,当前美国许多州由于资源相对有限,对AI技术的理解深度不及联邦政府,因此提出了不少潜在有害的法规提案。这些提案尤其倾向于监管技术本身而非其具体应用场景,这犹如将制造锤子的公司与用锤子实施犯罪的行为人同等对待,显然混淆了技术工具与使用者的责任。
例如,加利福尼亚州的参议院第1047号法案(SB 1047)原意是为前沿AI系统设立安全要求,但其对模型开发者施加了模糊不清且技术上难以实现的要求,以防止潜在的下游滥用。这种做法无异于要求锤子制造商为任何可能滥用锤子的行为负责。幸运的是,加州州长加文·纽森最终否决了SB 1047,这被视为对创新和开源社区的重大胜利。
另一个案例是纽约州的《负责任AI安全与教育法案》,该法案已于6月通过州议会,正等待州长凯西·霍楚尔的签署或否决。该法案同样对模型开发者提出了模糊且不合理的要求,旨在防范理论上的“关键危害”。如果生效,它将在无法显著提升公共安全的情况下,严重阻碍开源AI的发展。
相比之下,德克萨斯州的《负责任AI治理法案》则展现出一种积极的演变。该法案最初包含了许多与SB 1047类似的问题元素,即对模型提供者提出了难以遵循且可能沦为“安全表演”的形式主义要求。然而,随着德州监管机构对AI理解的加深,他们显著缩减了法案范围。最终由州长格雷格·雅培签署的法律,将重点放在了特定的应用领域,并设立了一个咨询委员会和监管沙盒,同时将更多责任分配给了政府机构而非私人公司。这标志着一种更为成熟和务实的监管路径,即从抽象的技术监管转向具体应用场景和责任划分。
总体而言,迄今为止美国各州提出的AI监管法规,其净影响令人担忧。尽管某些方面可能带来一些积极效应,但总体来看,这些法规的潜在负面影响,特别是对创新的严重阻碍,远大于其可能带来的益处。这也是为什么,如果当初能在联邦层面实施一项针对州级AI监管的暂停令,无论是一项为期10年的全面暂停,还是一项更温和、例如为期2年的,并仅针对最具争议性提案的暂停令,都可能对AI和整个社会带来净收益。它本可以为监管者争取到宝贵的时间,让他们深入理解AI技术,抵制不负责任的恐慌言论,并避免制造一个让大中小型企业都难以应对的碎片化监管环境。
尽管联邦法案中未能包含州级监管暂停的条款,但我们仍应持续努力,在美国乃至世界其他国家推动类似的倡议。目标是为监管者提供充足的时间,让他们能够全面、深入地理解AI的真实风险与益处,从而避免在技术发展初期,即恐慌言论最具影响力的时候,制定出扼杀创新的严苛法规。持续构建,拥抱创新,才是AI健康发展的长久之道。