周一,加州州长加文·纽森签署了《前沿人工智能透明度法案》成为法律,要求AI公司披露其安全实践,但并未强制要求实际的安全测试。该法案要求年收入至少5亿美元的公司在其网站上发布安全协议并向州当局报告事件,但缺乏纽森去年否决的法案中更强的执法力度,当时科技公司对该法案进行了强烈游说。
这项名为S.B. 53的立法取代了参议员斯科特·维纳先前的AI监管尝试,即S.B. 1047,后者曾要求AI系统进行安全测试并配备'紧急停止开关'。相反,新法案要求公司描述他们如何将'国家标准、国际标准和行业共识最佳实践'融入其AI开发,同时未具体说明这些标准是什么或要求独立验证。
从强制测试到自愿披露的转变
被否决的SB 1047本应强制要求AI系统进行安全测试和配备紧急停止开关,而新法则专注于披露。公司必须向加州紧急服务办公室报告州政府所称的'潜在关键安全事件',并为提出安全顾虑的员工提供举报人保护。该法案将灾难性风险狭义定义为可能通过武器援助、自主犯罪或失控导致50多人死亡或10亿美元损失的事件。总检察长可以对不遵守这些报告要求的违规行为处以每起最高100万美元的民事罚款。
从强制安全测试转向自愿披露的转变是一年来激烈游说的结果。据《纽约时报》报道,Meta和风险投资公司安德森·霍洛维茨已承诺向两个分别支持对AI行业友好政客的超级政治行动委员会提供高达2亿美元的资金,同时公司正在推动优先于各州AI规则的联邦立法。
立法背景与行业反应
最初的SB 1047是由AI安全倡导者起草的,他们警告AI存在来自科幻小说中假设场景和陈词滥调的生存威胁,但遭到了AI公司的反对,他们认为这些要求过于模糊,潜在的报告负担过于繁重。新法案遵循了纽森召集的AI专家的建议,包括斯坦福大学的李飞飞和前加州最高法院大法官马里亚诺-弗洛伦蒂诺·库埃拉。
与SB-1047一样,新法案在政府机构内创建了CalCompute,这是一个制定公共计算集群框架的联盟。加州技术部将建议对该法案进行年度更新,尽管这些建议不需要立法行动。
参议员维纳将该法案描述为建立'常识性护栏',而Anthropic的联合创始人杰克·克拉克称该法案的安全措施'实用',尽管透明度要求可能反映了主要AI公司已有的标准做法,而缺乏执行机制或具体标准的披露要求,长期来看可能对潜在AI危害提供有限保护。
加州在全球AI监管中的关键角色
根据加州州政府的数据,该州拥有全球前50大AI公司中的32家,去年全球超过一半的风险投资资金流向了湾区的AI和机器学习初创公司。因此,尽管最近签署的法案是州级立法,但加州AI监管发生的事情将产生更广泛的影响,既通过立法先例,也影响那些开发全球使用AI系统的公司。
加州作为全球AI创新中心的地位使其监管决策具有特殊重要性。当加州通过一项法律时,它不仅影响在该州运营的公司,还可能影响全国乃至全球的监管趋势。这种影响力部分源于加州作为科技中心的地位,部分源于其作为创新试验场的传统。
新法案的具体要求与局限性
新法案S.B. 53的核心要求相对简单:年收入超过5亿美元的AI公司必须在其网站上发布安全协议,并向加州紧急服务办公室报告'潜在关键安全事件'。然而,这些要求存在几个重要局限性:
- 缺乏具体标准:法案要求公司描述如何采用'最佳实践',但未定义这些实践是什么或如何验证。
- 自愿性质:除了基本报告要求外,安全措施本质上是自愿的。
- 狭窄的风险定义:仅将灾难性风险定义为可能造成重大人员伤亡或经济损失的事件,忽略了其他潜在危害。
- 有限的执法权力:总检察长只能对不报告事件的行为处以罚款,而非对不采取安全措施的行为。
科技行业的游说策略与影响
科技巨头成功削弱SB 1047强硬条款的策略值得深入分析。通过投入巨资支持对AI行业友好的政治家,并推动联邦立法优先于各州规则,科技行业有效地塑造了监管环境。这种策略不仅影响了加州的立法,还可能为其他州的AI监管设定先例。
Meta和安德森·霍洛维茨等公司的投资不仅旨在影响选举结果,还旨在塑造更广泛的政策讨论。通过资助研究和宣传活动,这些公司能够塑造公众对AI风险的认知,从而影响立法者的决策。
专家观点与未来展望
AI安全专家对新法案的反应不一。一些专家认为,尽管存在局限性,但透明度要求仍然是朝着正确方向迈出的一步。其他人则担心,缺乏强制性安全测试可能使公众面临不必要的风险。
斯坦福大学的李飞飞等专家强调,平衡创新与监管的重要性。他们认为,适当的监管框架可以促进负责任的AI发展,同时保持行业的竞争力。然而,批评者指出,新法案可能过于偏向行业利益,未能充分保护公众安全。
未来,加州可能需要调整其AI监管方法,以应对技术快速发展和新出现的风险。随着AI系统变得越来越复杂和强大,监管框架可能需要更加严格和具体。然而,任何新的监管措施都将面临来自科技行业的强烈反对,这将使未来的立法斗争更加复杂。
全球AI监管趋势的比较
加州的AI监管尝试是全球更广泛趋势的一部分。欧盟已经实施了《人工智能法案》,这是一个全面的监管框架,根据AI系统的风险水平对其进行分类。相比之下,美国的联邦AI立法仍然处于早期阶段,各州正在采取不同的方法。
加州的新法案与欧盟的《人工智能法案》有几个关键区别:
- 风险评估方法:欧盟采用基于风险的分类方法,而加州专注于透明度和报告。
- 执行机制:欧盟的法案具有更强大的执行机制,包括合规认证和市场监管。
- 范围:欧盟的法案涵盖所有AI应用,而加州的法案仅针对前沿AI系统。
这些差异反映了不同的监管哲学:欧盟倾向于采取预防性方法,而加州则更倾向于促进创新。随着AI技术的不断发展,这些不同的监管方法可能会产生不同的结果,为全球AI治理提供宝贵的经验。
对AI创新的影响
新法案对AI创新的影响是一个复杂的问题。一方面,过于严格的监管可能会阻碍创新,使公司难以开发和部署新的AI系统。另一方面,缺乏监管可能会导致有害AI系统的开发,损害公众对技术的信任。
支持者认为,新法案的相对宽松要求将允许AI行业继续创新,同时提供一定程度的透明度和问责制。批评者则担心,缺乏强制性安全措施可能导致公司优先考虑速度而非安全,从而增加风险。
结论:平衡创新与监管的挑战
加州的新AI法案代表了在促进创新和保护公众安全之间寻求平衡的持续努力。虽然该法案未能包含SB 1047中的一些更强硬条款,但它仍然朝着正确的方向迈出了重要一步。通过要求公司披露其安全实践并向当局报告事件,该法案为AI行业提供了一定程度的透明度和问责制。
然而,随着AI技术的不断发展,监管框架需要不断调整和更新。未来的立法者需要密切关注AI系统的风险和影响,并根据需要进行调整。同时,科技行业也需要认识到负责任创新的重要性,主动采取措施确保AI系统的安全和伦理使用。
最终,有效的AI监管需要政府、行业和公民社会的合作。只有通过这种多方合作,我们才能确保AI技术的发展以造福全社会,同时最大限度地减少潜在风险。