加州新AI法案:科技巨头如愿以偿的监管妥协

1

引言:监管风向的转变

2025年9月,加州州长加文·纽森签署了《前沿人工智能透明度法案》,这一举动标志着加州在人工智能监管领域的重大转变。与去年被否决的SB 1047法案相比,新法案明显向科技巨头做出了妥协,移除了强制安全测试和'紧急停止开关'的要求。这一变化引发了关于AI监管真正目的和有效性的广泛讨论。

加州作为全球AI创新中心,拥有全球前50大AI公司中的32家,去年全球超过一半的AI和机器学习初创企业风险投资资金流向了湾区公司。因此,加州的AI监管政策不仅影响州内企业,更将对全球AI发展轨迹产生深远影响。

新法案的核心内容

从强制安全到自愿透明

新签署的SB 53法案与去年被否决的SB 1047形成了鲜明对比。原法案要求AI系统必须进行安全测试并配备'紧急停止开关',而新法案则将重点转向信息披露。

根据新法案,年收入至少5亿美元的公司必须在网站上公布其安全协议,并向加州紧急服务办公室报告'潜在关键安全事件'。法案对灾难性风险的界定相当狭窄,仅包括可能造成50多人死亡或10亿美元损失的情况,具体形式包括武器协助、自主犯罪行为或系统失控。

然而,新法案并未强制要求独立的安全测试或验证,只是要求公司描述其如何将'国家标准、国际标准和行业共识最佳实践'纳入AI开发过程,而没有具体说明这些标准是什么,也不要求独立验证。

执行力度有限

新法案的执行机制相对薄弱。总检察长可以对违反报告要求的行为处以每起违规最高100万美元的民事罚款,但对于不遵守安全协议或未达到某些安全标准的行为,却没有相应的处罚措施。

加州政府技术部将每年向立法机构提出法案更新建议,但这些建议无需立法行动即可实施。这种机制使得监管框架的调整可能缺乏足够的公众监督和民主参与。

背景分析:游说与妥协

科技巨头的游说力量

从强制安全测试到自愿披露的转变,很大程度上源于过去一年科技行业的强力游说。《纽约时报》报道,Meta和风险投资公司安德森·霍洛维茨已承诺向两个分别支持AI行业友好政治家的超级政治行动委员会捐赠高达2亿美元,同时企业界也推动联邦立法,以优先于各州的AI规则。

这种强大的游说力量使得原本较为严格的监管提案大幅软化。科技行业认为SB 1047的要求过于模糊,潜在的报告负担过于繁重,而新法案的透明度要求可能只是大型AI公司已经采用的标准做法。

专家意见的分歧

SB 1047最初是由AI安全倡导者起草的,他们警告来自AI的生存威胁,这些警告很大程度上基于科幻小说中的假设场景和情节。然而,这一法案遭到了AI公司的抵制,他们认为要求过于模糊,报告负担过重。

新法案遵循了纽森召集的AI专家建议,包括斯坦福大学的李飞飞和前加州最高法院法官马里亚诺-弗洛伦蒂诺·奎亚尔。参议员斯科特·维纳将新法案描述为建立'常识性护栏',而Anthropic的联合创始人杰克·克拉克则称该法案的安全措施'务实'。

行业影响与未来展望

对AI公司的实际影响

对于年收入超过5亿美元的AI公司而言,新法案的要求相对容易满足。公开安全协议和报告潜在安全事件已经成为许多领先AI公司的标准做法,因此这一变化可能不会显著改变他们的运营方式。

然而,对于较小的AI公司和新进入者,即使这些要求看似简单,也可能增加合规负担,特别是在资源有限的情况下。这可能进一步巩固科技巨头的市场主导地位,因为它们拥有专门的团队来处理合规事宜。

监管模式的全球影响

加州作为全球AI创新的中心,其监管政策将产生示范效应。其他州和国家可能会密切关注加州的实施情况,并考虑采用类似的监管方法。

新法案的'软监管'模式——强调自愿披露而非强制执行——可能成为全球AI监管的模板。这种方法反映了当前科技监管的一种更广泛趋势,即在不过度限制创新的情况下寻求对新兴技术的治理。

争议与批评

保护不足的担忧

批评者指出,新法案缺乏强制执行机制和具体标准,可能无法提供针对潜在AI危害的长期保护。没有独立的安全测试要求,公司和政府可能难以评估AI系统的真实安全性。

此外,灾难性风险的狭义定义意味着许多潜在的严重风险可能不会被纳入监管范围。例如,大规模失业、社会不平等加剧或系统性偏见等问题虽然可能造成广泛的社会伤害,但不符合法案中关于'50+死亡'或'10亿美元损失'的严格标准。

监管有效性的质疑

一些观察人士质疑,仅依靠透明度而没有强制执行力的监管是否能够有效保护公众利益。历史经验表明,在缺乏严格监管的情况下,公司可能会优先考虑商业利益而非安全考量。

此外,新法案创建的CalCompute(政府运营机构内的一个联盟)旨在制定公共计算集群框架,但其实际效果和影响力仍有待观察。缺乏明确的治理结构和问责机制可能限制这一倡议的有效性。

结论:平衡创新与监管的挑战

加州新AI法案代表了在促进创新与确保安全之间寻求平衡的最新尝试。通过将重点从强制安全测试转向透明度要求,立法者试图在不扼杀创新的情况下为AI发展设定护栏。

然而,这一方法的有效性将取决于其实施情况和实际影响。如果透明度要求导致实质性的安全改进,那么这可能被视为一种成功的监管模式。但如果公司只是表面合规而未采取实质性安全措施,那么这一法案可能被视为对科技行业的让步,而非对公共利益的保护。

随着AI技术的快速发展,监管框架需要不断调整以应对新的挑战和风险。加州的经验将为全球其他地区的AI监管提供宝贵借鉴,同时也引发关于如何在数字时代有效治理新兴技术的更广泛讨论。

加州州长加文·纽森在2025年8月21日重划国会选区法案签署活动中

加州州长加文·纽森在2025年8月的一次法案签署活动中。加州作为全球AI创新中心,其监管政策将对整个行业产生深远影响。

未来发展方向

持续监管的必要性

AI技术正处于快速发展阶段,其潜在影响和风险也在不断演变。这意味着监管框架需要具有灵活性,能够适应新的发展和挑战。加州新法案的年度更新机制可能有助于保持监管的相关性,但需要确保这一过程充分纳入多方利益相关者的意见。

国际合作的潜力

AI是全球性技术,其监管也需要国际合作。加州的经验可以为其他地区提供参考,同时也有助于协调全球监管方法,避免监管套利和不一致标准带来的问题。

随着AI技术的普及和应用范围的扩大,国际社会可能需要考虑建立全球性的AI治理框架,类似于气候变化或网络安全领域的国际协议。这将有助于确保AI的发展符合全人类的共同利益和价值观。

公众参与的加强

AI技术的发展和监管决策不应仅由政府和科技行业主导。公众、学术界、公民社会和其他利益相关者应参与这一过程,确保监管反映社会价值观和需求。

加强公众教育,提高公众对AI技术的理解和认识,也是有效监管的重要组成部分。只有当公众能够充分理解AI的潜力和风险时,才能做出明智的政策选择,并对AI的发展进行有效监督。