AI监管新里程碑:Anthropic支持加州SB 53法案引领行业自律

1

在人工智能技术飞速发展的今天,如何平衡创新与安全已成为全球政策制定者面临的核心挑战。2025年9月,Anthropic公司宣布支持加州SB 53法案,这一表态标志着AI行业与监管机构合作进入新阶段。SB 53法案作为加州针对前沿AI系统的监管框架,通过'信任但验证'的原则,为AI安全治理提供了新思路。

SB 53法案的核心内容

SB 53法案主要针对由前沿AI开发者(如Anthropic)开发的强大AI系统,要求大型AI公司采取以下关键措施:

  1. 开发并发布安全框架:公司需详细描述如何管理、评估和缓解灾难性风险——这些风险可能预见性地导致大规模人员伤亡或重大经济损失。

  2. 发布透明度报告:在部署新的强大模型前,公司需发布公开报告,总结其灾难性风险评估及履行安全框架所采取的措施。

  3. 报告关键安全事件:要求公司在15天内向州政府报告关键安全事件,并可机密披露对内部部署模型潜在灾难性风险的评估摘要。

  4. 提供举报人保护:明确覆盖违反这些要求以及因灾难性风险对公共健康/安全构成特定且重大危险的举报人保护。

  5. 公共问责机制:公司需对其在框架中的承诺负责,否则将面临经济处罚。

AI监管框架

从SB 1047到SB 53:监管思路的转变

加州在AI监管方面的探索并非始于SB 53。去年,加州曾尝试通过SB 1047对AI系统进行监管,但该法案因过于严格的技术规范要求而受到争议。SB 53代表了一种更为平衡的监管思路,从强制性技术规范转向了基于披露的'信任但验证'模式。

这一转变很大程度上源于州长纽森组建的加州联合政策工作组(Joint California Policy Working Group)的建议。该工作组由学者和行业专家组成,提出了'信任但验证'的监管理念,并由参议员Scott Wiener的SB 53法案具体实施。

行业实践与法律规范的结合

值得注意的是,SB 53法案中的许多要求实际上反映了Anthropic和其他前沿AI公司已经遵循的行业实践。例如,Anthropic已经发布了《负责任扩展政策》(Responsible Scaling Policy),详细说明了如何评估和缓解模型能力增强带来的风险。公司还发布了全面的系统卡片(system cards),记录模型的能力和局限性。

其他前沿实验室,如Google DeepMind、OpenAI和Microsoft,也采取了类似的安全框架和披露机制,同时在AI前沿领域展开激烈竞争。SB 53法案将这些行业实践法律化,使所有受监管模型都必须达到这一标准。

平衡监管与创新:豁免机制的重要性

SB 53法案的一个关键特点是它专注于开发最强大AI系统的大型公司,同时为不太可能开发强大模型的初创公司和较小公司提供豁免。这一差异化监管 approach 避免了对创新型企业造成不必要的负担,确保监管资源集中在真正需要关注的领域。

透明度对AI安全的关键作用

在缺乏监管的情况下,随着模型能力的增强,AI实验室可能会面临越来越大的压力,减少自己的安全和披露计划,以保持竞争力。这种'逐底竞争'可能导致整体安全水平的下降。

SB 53法案的透明度要求将改变这一动态。现在,开发者可以在保持竞争力的同时,确保对可能危害公共安全的AI能力保持透明,创造了一个披露成为强制性而非可选性的公平竞争环境。

未来发展方向

尽管SB 53法案提供了坚实的监管基础,但Anthropic认为还有几个方面可以进一步完善:

计算能力阈值的优化

法案目前根据训练AI系统所使用的计算能力(FLOPS)决定监管哪些AI系统。目前的阈值(10^26 FLOPS)是一个可接受的起点,但存在一些强大的模型可能未被覆盖的风险。随着AI技术的进步,这一阈值可能需要调整,以确保所有相关系统都得到适当监管。

评估细节的披露要求

开发者应被要求提供更详细的测试、评估和缓解措施信息。当公司分享安全研究、记录红队测试结果并解释部署决策时——正如Anthropic与行业合作伙伴通过前沿模型论坛(Frontier Model Forum)所做的那样——这实际上加强了而非削弱了我们的工作。

监管框架的动态更新

AI技术在不断发展,监管框架也需要相应演进。监管机构应能够根据需要更新规则,以跟上新发展的步伐,并在安全与创新之间保持适当的平衡。

全球AI治理的启示

SB 53法案的支持不仅对加州具有重要意义,也为全球AI治理提供了宝贵经验。它展示了一种监管方法,既能确保AI系统的安全,又能促进创新,同时避免过度干预。

Anthropic鼓励加州通过SB 53法案,并期待与华盛顿及其他地区的政策制定者合作,制定全面的方法,在保护公众利益的同时保持美国的AI领导地位。

行业自律与监管的协同效应

Anthropic支持SB 53法案的决定反映了AI行业日益成熟的态度:认识到自律虽然必要,但需要监管框架的补充和强化。这种自律与监管的协同效应,可能是AI安全治理最有效的方式。

随着AI技术的不断进步,我们需要不断调整和完善治理框架,确保它们能够应对新的挑战和机遇。SB 53法案代表了这一进程中的重要一步,为未来的AI治理奠定了基础。

结语

AI监管不是阻碍创新,而是确保创新朝着有益于全人类的方向发展。SB 53法案通过合理的披露要求和责任机制,为AI安全治理提供了新思路。Anthropic的支持表明,前沿AI公司愿意在透明度和问责方面承担更多责任,这不仅有助于保护公众安全,也有助于建立用户和公众对AI技术的信任。

在AI技术日新月异的今天,我们需要更多这样的监管创新,平衡发展与安全,确保AI成为人类进步的助力而非阻力。SB 53法案可能只是这一旅程的开始,但它无疑为全球AI治理树立了重要标杆。