人工智能技术的迅猛发展正引发全球范围内的监管讨论,而美国最新通过的'美丽法案'(One Big Beautiful Bill)为这一讨论增添了新的维度。这项由总统特朗普提出的法案虽未包含对各州AI监管的暂缓条款,但其影响已开始显现,预示着美国AI监管格局将发生重大转变。
州际监管的碎片化风险
当前,美国各州正在竞相制定自己的AI监管法规,这一趋势可能导致监管体系的碎片化。每个州基于不同的考量因素和利益诉求,可能出台差异甚大的AI监管政策,形成所谓的"法律拼贴"(patchwork of laws)。这种碎片化的监管环境对企业,尤其是跨州运营的企业而言,意味着合规成本的显著增加。
从商业角度看,企业需要投入大量资源来理解和遵守各州不同的监管要求,这不仅增加了运营复杂性,也可能阻碍创新步伐。当企业面临不确定且不断变化的监管环境时,其创新动力和投资意愿可能会受到抑制。
技术发展初期的监管困境
AI监管面临的核心挑战之一是技术发展初期的信息不对称。当一项新技术刚刚兴起时,监管者、公众乃至行业内部对其真实风险和收益的理解往往有限。这种信息不对称为各种夸张的声明和误导性信息提供了生存空间。
在AI技术发展的初期阶段,企业和利益相关者可以做出关于AI益处或危险的宏大声明,而传统媒体和社交媒体往往难以有效核查这些说法,倾向于重复传播未经证实的信息。这一时期,企业几乎可以就AI技术发表任何言论而不受实质性质疑。
这种环境为两种极端现象创造了条件:一是过度炒作AI的潜力,二是夸大AI的危险性。一些企业可能利用这种信息不对称,试图推动反竞争的法规,阻碍开源AI和其他创新性AI项目的发展。
监管者的学习曲线
然而,随着监管者对AI技术的理解加深,他们开始能够更准确地评估AI的真实风险和收益。以美国参议院的两党AI洞察论坛为例,该论坛听取了多方利益相关者的意见,最终形成了支持创新、摒弃不切实际的"AI接管"等担忧的共识。
监管者的学习过程是一个渐进的过程,需要时间积累经验和知识。在这个过程中,监管者逐渐能够区分哪些监管措施是必要的,哪些可能过度限制创新。例如,欧盟在通过AI法案后,许多监管者认识到其中一些"保护性"措施实际上并无助益,随后放松了部分条款,以减少对创新的阻碍。
有效监管的必要条件
并非所有AI监管都是不必要的或有害的。有效的AI监管应该聚焦于具体的应用场景,而非技术本身。理想的监管应该:
- 针对具体危害:禁止非自愿深度伪造色情内容等明确有害的应用
- 防止误导性营销:确保AI生成内容的透明度和真实性
- 平衡创新与安全:在保障基本安全的同时,不过度限制创新空间
- 基于证据而非恐惧:以实证研究为基础制定监管措施,而非回应未经证实的恐慌
各州监管案例分析
加州SB 1047法案
加州提出的SB 1047法案旨在对前沿AI系统施加安全要求,但其对模型开发者设定的模糊和/或技术上不可行的要求,试图防止有害的下游使用,这类似于如果有人用锤子造成伤害,就要追究锤子制造商的责任。这种监管方式不仅不切实际,还可能阻碍创新。
幸运的是,州长加文·纽森否决了SB 1047,避免了这一可能对AI创新产生负面影响的法规通过。
纽约州负责任AI安全与教育法案
纽约州于6月通过的《负责任AI安全与教育法案》同样对模型构建者设置了模糊且不合理的要求,名义上是防范理论上的"关键危害"。这类法规可能会阻碍开源发展,而不会真正提高安全性。
德州负责任AI治理法案
德州的负责任AI治理法案最初包含了SB 1047的许多有问题的元素,会创建不合理的要求,使模型提供商难以合规,而合规本身可能只是"安全剧场",不太可能真正提高安全性。
然而,随着德州的监管者对AI的理解加深,他们大幅缩减了该法案的范围。州长格雷格·阿博特于6月底签署了该法案成为法律。最终版本专注于特定应用领域,建立了咨询委员会和监管沙盒,并将更多责任放在政府机构而非私营公司身上。
监管与创新的平衡
从目前各州提出的监管提案来看,其净影响大多是负面的。许多法规将严重阻碍创新,尽管它们可能带来一些较小的积极效益。这正是为什么对各州监管实施暂缓可能会对AI和社会产生净效益。
在有限期内停止不良监管,将给予监管者时间来了解AI技术,并忽略不负责任的恐惧营销。此外,这将帮助他们避免创建各州监管的拼贴系统,使大小企业都难以合规。
更合理的监管替代方案
虽然全面的10年暂缓期可能过于激进,但一个更温和的方案,例如2年的暂缓期,且仅涵盖最有问题的监管提案,可能会有更好的通过机会。
理想的监管框架应该:
- 分阶段实施:随着监管者对技术的理解加深,逐步调整监管措施
- 聚焦应用而非技术:监管具体应用场景,而非AI技术本身
- 建立监管沙盒:为创新提供测试空间,同时确保基本安全
- 多方参与:确保监管过程纳入技术专家、行业代表和公民社会的意见
- 定期评估:定期审查监管措施的效果,根据实际情况调整
全球AI监管趋势
美国的AI监管经验对全球具有借鉴意义。各国在制定AI监管政策时,需要平衡促进创新与防范风险的双重目标。过严的监管可能阻碍技术进步,而过松的监管则可能导致潜在风险无法得到有效控制。
欧盟的AI法案提供了一个重要的参考案例,展示了如何在保障基本权利的同时,为创新留出空间。其他国家和地区在制定自己的AI监管框架时,可以从这些经验中学习,避免重蹈覆辙。
未来展望
尽管'美丽法案'未包含对各州AI监管的暂缓条款,但希望在美国及其他国家,继续努力为监管者提供时间来理解AI的真实风险和收益,避免在技术初期制定过度的限制性法规。
随着AI技术的不断发展,监管框架也需要与时俱进。未来的AI监管应该更加灵活、精准,能够适应技术的快速变化,同时保护公众利益。这需要监管者、行业和学术界之间的持续对话与合作。
AI监管的最终目标不是限制技术发展,而是确保技术发展朝着有利于人类福祉的方向前进。通过平衡创新与监管,我们可以构建一个既安全又充满活力的AI生态系统,为人类社会带来最大利益。