Anthropic支持SB 53:加州AI监管新框架的突破与展望

1

在人工智能技术飞速发展的今天,如何确保强大的AI系统安全可控已成为全球政策制定者、科技企业和公众共同关注的核心议题。2025年9月8日,领先AI研究公司Anthropic宣布支持加州SB 53法案,这一立场标志着前沿AI开发企业与监管机构之间建立新型合作关系的重要一步。本文将深入剖析SB 53法案的核心内容、其与此前SB 1047的区别、Anthropic的支持立场,以及这一监管框架对AI行业发展的深远影响。

SB 53法案:从SB 1047到更精准的监管路径

加州在AI监管领域一直走在前沿。2024年的SB 1047法案试图对强大的AI系统实施严格的技术性规定,但引发了业界的广泛担忧,认为这种'一刀切'的监管方式可能阻碍创新,且难以适应快速发展的技术环境。基于SB 1047的经验教训,加州州长纽森组建了加州联合政策工作组,汇集学术界和行业专家为AI治理提供建议。

AI监管框架

工作组提出了"信任但验证"的监管理念,这一理念被参议员斯科特·维纳的SB 53法案所采纳。与SB 1047的强制性技术规范不同,SB 53通过信息披露要求来实现监管目标,既保留了企业创新的灵活性,又确保了必要的安全保障。正如Anthropic所指出的,虽然他们认为前沿AI安全最好能在联邦层面而非各州监管拼图的方式解决,但强大的AI技术进步不会等待华盛顿达成共识。

SB 53的核心要求:构建AI安全透明度框架

SB 53法案针对开发最强大AI系统的大型公司提出了一系列具体要求,这些要求旨在确保AI系统的安全开发与部署,同时保护公众利益。以下是法案的关键条款:

1. 安全框架的制定与公开

法案要求企业开发和发布安全框架,详细描述其如何管理、评估和缓解灾难性风险——这些风险可能预见性地并实质性地导致大规模伤亡事件或重大经济损失。Anthropic已经在这方面走在前列,其负责任扩展政策详细阐述了如何随着模型能力提升而评估和缓解风险。

2. 透明度报告的发布

企业需要在部署强大的新模型之前,发布公开透明度报告,总结其灾难性风险评估结果以及为履行各自框架所采取的措施。这种透明度要求将促使企业更加审慎地评估AI系统的潜在风险,并向公众展示其风险管理过程。

3. 安全事件报告机制

法案要求企业向州政府报告关键安全事件,时限为15天内。此外,企业还可以机密披露任何对内部部署模型潜在灾难性风险评估的摘要。这种及时报告机制将有助于监管机构及时了解AI系统的安全状况,并在必要时采取干预措施。

4. 举报人保护措施

法案提供了明确的举报人保护条款,涵盖违反这些要求的行为以及灾难性风险对公众健康/安全造成的特定和实质性危险。这一条款将鼓励内部人员报告潜在的安全问题,而不必担心报复。

5. 公开问责与处罚机制

企业需对其框架中的承诺承担公开责任,否则将面临经济处罚。这一问责机制将确保企业不会仅仅停留在'纸面合规',而是真正将安全承诺落实到实践中。

SB 53的行业影响:平衡创新与安全

SB 53法案的实施将对AI行业产生深远影响,特别是在以下几个方面:

1. 防止安全标准的'逐底竞争'

在缺乏统一监管的情况下,随着AI模型能力的增强,实验室可能面临越来越大的压力,降低自身的安全和披露计划以保持竞争力。SB 53的透明度要求将确保开发者在保持竞争力的同时,对其可能危害公共安全的AI能力保持透明,创造一个披露是强制而非可选的公平竞争环境。

2. 行业实践的制度化

SB 53的要求将使Anthropic和许多其他前沿AI公司已经遵循的做法制度化。例如,Anthropic发布详细的系统卡片,记录模型的能力和局限性;其他前沿实验室如Google DeepMind、OpenAI和Microsoft也采用了类似的方法。现在,所有涵盖的模型将在法律上被要求达到这一标准。

3. 为中小企业提供豁免

SB 53明智地将重点放在开发最强大AI系统的大型公司上,同时为不太可能开发强大模型且不应承担不必要监管负担的初创公司和小公司提供豁免。这种'比例原则'确保了监管的针对性和有效性,避免了对小企业造成不必要的合规负担。

SB 53的改进空间:迈向更完善的AI治理

尽管SB 53提供了坚实的监管基础,但仍有改进的空间。Anthropic指出以下方面值得进一步发展和完善:

1. 计算能力阈值的精确性

目前,法案根据训练AI系统所使用的计算能力(FLOPS)决定监管哪些AI系统。当前的阈值(10^26 FLOPS)是一个可接受的起点,但始终存在一些强大模型可能未被覆盖的风险。随着AI技术的不断发展,这一阈值需要定期评估和调整,以确保所有可能对公众安全构成风险的AI系统都被纳入监管范围。

2. 更详细的信息披露要求

开发者应被要求提供更详细的测试、评估和缓解措施信息。当企业分享安全研究、记录红队测试结果并解释部署决策时——正如Anthropic与行业参与者通过前沿模型论坛所做的那样——这会加强而非削弱其工作。SB 53可以考虑增加对具体测试方法和评估结果的披露要求,以提高监管的有效性。

3. 监管框架的适应性

AI技术日新月异,监管规则需要能够随着技术进步而发展。监管机构应有权根据需要更新规则,以跟上新的发展步伐,并保持安全与创新之间的适当平衡。SB 53可以建立一个定期审查和更新机制,确保监管框架能够适应AI技术的快速变化。

全球AI治理视角:SB 53的示范意义

SB 53不仅对加州具有重要意义,也可能为全球AI治理提供有价值的参考。在全球范围内,AI监管正处于形成阶段,各国和地区正在探索不同的监管模式。SB 53的"信任但验证"理念代表了监管的一种平衡方法,既不过度干预企业创新,又确保必要的安全保障。

Anthropic的支持表明,前沿AI企业愿意参与监管过程,并与政策制定者合作制定合理的监管框架。这种公私合作模式对于有效的AI治理至关重要,因为政府和企业各自拥有对方所缺乏的专业知识和资源。

此外,SB 53可能为联邦层面的AI监管提供经验。虽然Anthropic认为AI安全最好能在联邦层面解决,但州层面的试点可以为更广泛的联邦政策提供有价值的实践经验。正如历史上许多技术监管案例所示,州层面的创新有时会演变为联邦标准。

结论:迈向负责任的AI未来

Anthropic对SB 53的支持反映了AI行业对负责任发展的承诺。正如其声明中所强调的,问题不在于我们是否需要AI治理,而在于我们今天是深思熟虑地发展它,还是明天被动地应对它。SB 53为前者提供了坚实的路径。

SB 53法案通过透明度和问责制而非过度技术规范的方式,为AI监管提供了一个平衡的方法。它承认AI技术的巨大潜力,同时认识到需要适当的保障措施来管理相关风险。通过要求大型AI公司开发安全框架、发布透明度报告并报告安全事件,SB 53旨在确保AI的发展以安全、透明和负责任的方式进行。

随着AI技术的不断进步,监管框架需要继续发展和完善。SB 53是一个良好的起点,但我们需要不断评估和改进它,以应对新的挑战和机遇。通过公私合作、持续学习和灵活调整,我们可以确保AI技术造福社会,同时最大限度地减少潜在风险。

加州通过SB 53法案将向世界展示,负责任的AI治理是可能的,也是必要的。这不仅保护公众利益,还能维持美国在AI领域的领导地位,为全球AI治理树立榜样。正如Anthropic所呼吁的,我们鼓励加州通过这一法案,并期待与华盛顿和其他地区的政策制定者合作,制定全面的方法,在保护公共利益的同时保持美国的AI领导地位。