在人工智能技术迅猛发展的今天,如何有效监管这一颠覆性技术成为全球政策制定者面临的重大挑战。2025年9月,加利福尼亚州州长加文·纽森签署了《前沿人工智能透明度法案》,这一举措原本被视为AI监管的重要一步,但仔细分析后会发现,该法案实际上在很大程度上满足了大型科技公司的诉求,放弃了此前备受争议的安全测试和"杀毒开关"要求。
从严格监管到自愿披露的转变
加州新签署的S.B. 53法案取代了参议员斯科特·维纳此前提出的S.B. 1047法案。S.B. 1047曾要求AI系统必须进行安全测试并配备"杀毒开关",这一要求遭到了科技公司的强烈反对。相比之下,新法案仅要求公司在其网站上公布安全协议,并向州当局报告事件,缺乏去年纽森否决的法案中更强有力的执行条款。
"加州已经证明,我们可以在保护社区的同时确保蓬勃发展的AI产业继续增长,"纽森在一份声明中表示。然而,除了基本的报告要求外,该法律的实际保护措施在很大程度上仍是自愿的。
根据加州州政府的数据,该州拥有全球前50大AI公司中的32家,去年全球超过一半的风险资本资金流向了湾区AI和机器学习初创公司。因此,虽然新法案是州级立法,但加州在AI监管方面的举措将产生更广泛的影响,既通过立法先例,也影响那些开发全球使用的AI系统的公司。
透明度取代安全测试
在被否决的SB 1047本应强制要求AI系统进行安全测试和配备"杀毒开关",而新法则专注于披露。公司必须向加州紧急服务办公室报告州政府所称的"潜在关键安全事件",并为提出安全顾虑的员工提供举报人保护。该法律将灾难性风险狭义地定义为可能通过武器协助、自主犯罪或失控导致50多人死亡或10亿美元损失的 incidents。总检察长可以对不遵守这些报告要求的行为处以每起违规最高100万美元的民事罚款。
从强制安全测试转向自愿披露的转变是一年激烈游说的结果。《纽约时报》报道,Meta和风险投资公司Andreessen Horowitz已承诺向两个分别支持对AI产业友好的政治候选人的超级政治行动委员会投入高达2亿美元,同时公司也推动联邦立法,以优先于各州AI规则。
行业游说的力量
原SB 1047由AI安全倡导者起草,他们警告AI存在源自科幻小说中假设场景和套路的生存威胁,但遭到了AI公司的抵制,这些公司认为要求过于模糊,潜在的报告负担过于繁重。新法案遵循了纽森召集的AI专家的建议,包括斯坦福大学的李飞飞和前加州最高法院法官马里亚诺-弗洛伦蒂诺·库埃拉。
科技行业的游说力量在这一转变中发挥了关键作用。大型科技公司投入巨资影响政策制定,确保立法不会对其业务模式造成重大干扰。这种影响力不仅体现在加州,也延伸到联邦层面,公司推动可能优先于各州规则的联邦立法。
专家观点与行业反应
参议员维纳将这项法律描述为建立"常识性的护栏",而Anthropic的联合创始人杰克·克拉克称该法律的安全措施"实用"。然而,透明度要求可能只是反映了主要AI公司已有的标准实践,且披露要求缺乏执行机制或具体标准,从长远来看可能对潜在AI危害提供有限保护。
李飞飞等专家的建议在新法案中得到了一定体现,但专家们对这一转变的看法不一。一些专家认为,在AI技术快速发展的阶段,过于严格的监管可能会扼杀创新;而另一些专家则担忧,缺乏强制安全措施的监管无法有效应对AI可能带来的风险。
CalCompute与监管框架
与SB-1047一样,新法案创建了CalCompute,这是政府机构内的一个联盟,旨在开发公共计算集群框架。加州技术局将建议每年更新该法律,尽管这些建议不需要立法行动。
这一机制表明,加州试图在促进AI创新和确保安全之间取得平衡。然而,批评者指出,这种平衡可能过于倾向于创新,而忽视了潜在的风险。
全球影响与未来展望
作为全球AI创新中心,加州的监管决策将对全球AI治理产生深远影响。新法案的通过可能为其他州和国家提供模板,但也可能引发关于AI监管有效性的辩论。
未来,随着AI技术的不断发展,监管框架也需要不断调整。可能的趋势包括:更具体的行业标准、更有效的执行机制,以及更广泛的国际合作。然而,如何平衡创新与安全、自律与监管,仍是政策制定者面临的挑战。
结论:监管与创新的持续博弈
加州新AI法案的通过反映了AI监管领域的一个更广泛趋势:在快速发展的技术面前,监管往往滞后,且容易受到行业影响。虽然透明度和报告要求有其价值,但缺乏强制安全措施的监管框架可能无法有效应对AI带来的潜在风险。
未来,随着AI技术的进一步发展,我们需要重新思考监管的方式。这可能包括更灵活的监管方法、更有效的国际合作,以及更广泛的利益相关者参与。只有这样,我们才能确保AI技术的发展既创新又安全,既造福社会又控制风险。