AI监管新篇章:Anthropic支持SB 53法案引领行业规范

1

在人工智能技术飞速发展的今天,如何平衡创新与安全成为全球政策制定者和科技企业共同面临的挑战。2025年9月,Anthropic公司宣布支持加州SB 53法案,这一表态标志着前沿AI企业开始积极参与监管框架的构建,而非被动接受规范。这一决定不仅反映了Anthropic对AI治理的深思熟虑,也为整个行业树立了负责任发展的标杆。

SB 53法案的背景与意义

SB 53是加州针对前沿AI系统开发制定的监管法案,由州长纽森召集的加州联合政策工作组提出,并由参议员斯科特·维纳主导起草。这一法案的出台源于对加州此前AI监管尝试SB 1047的反思与改进。Anthropic作为前沿AI开发企业,长期以来一直倡导深思熟虑的AI监管,此次支持SB 53正是基于对过往经验教训的总结。

AI监管框架

加州联合政策工作组由学术界和行业专家组成,其核心建议是采用'信任但验证'的监管模式。与去年SB 1047中备受争议的强制性技术规范不同,SB 53通过信息披露要求而非具体技术指令来实现这一原则。这一转变体现了监管思路的成熟——既认识到前沿AI企业的专业能力,又确保公众安全得到切实保障。

SB 53法案的核心要求

SB 53法案对开发最强大AI系统的大型公司提出了明确要求,这些要求既确保了透明度,又为创新保留了空间:

安全框架开发与发布

法案要求企业开发并发布安全框架,详细描述如何管理、评估和缓解灾难性风险——那些可能预见性地对大规模伤亡事件或重大经济损失产生实质性贡献的风险。这一要求并非凭空想象,而是基于对AI系统潜在风险的科学评估。

Anthropic已经实践了这一要求,其发布的《负责任扩展政策》详细阐述了如何随着模型能力的提升而评估和缓解风险。这种前瞻性风险管理正是SB 53试图推广的最佳实践。

透明度报告

在部署新的强大模型之前,企业必须发布公开透明度报告,总结其灾难性风险评估和履行各自框架所采取的步骤。这一要求确保了公众对AI系统潜在风险的知情权,同时也促使企业在模型开发过程中始终保持安全意识。

Anthropic等前沿公司已经通过发布系统卡来记录模型能力和限制,这种做法不仅增强了透明度,也为行业提供了宝贵的参考标准。

安全事件报告

法案要求企业在15天内向州政府报告关键安全事件,甚至可以机密披露任何对内部部署模型灾难性风险潜力评估的摘要。这一机制确保了监管机构能够及时了解AI系统的安全状况,同时为敏感信息的适当保护留出空间。

举报人保护

SB 53提供了明确的举报人保护,覆盖对这些要求的违反以及对公共健康/安全构成特定和实质性危险的灾难性风险。这一条款至关重要,它鼓励内部人员揭露潜在的安全隐患,而不必担心报复。

公开问责

企业必须对其在框架中做出的承诺负责,否则将面临经济处罚。这一要求确保了企业不会将安全承诺仅停留在纸面上,而是真正将其融入日常运营和决策过程中。

行业影响与实践

SB 53的要求实际上是将Anthropic和许多其他前沿AI公司已经遵循的做法正式化。在竞争日益激烈的AI领域,各大实验室已经认识到安全与透明度不仅是社会责任,也是长期竞争力的关键因素。

Google DeepMind、OpenAI和微软等前沿实验室已经采用了类似的方法,同时在前沿领域展开激烈竞争。SB 53的通过将使所有涵盖的模型在法律上受到这一标准的约束,创造了一个公平的竞争环境,其中披露是强制性的,而非可选的。

AI安全与透明

法案的巧妙之处在于它适当关注开发最强大AI系统的大型公司,同时为不太可能开发强大模型的初创公司和较小公司提供豁免。这种差异化监管避免了不必要的监管负担,同时确保了对真正具有潜在风险的系统的有效监督。

SB 53的透明度要求将对前沿AI安全产生重要影响。如果没有这一法案,拥有越来越强大模型的实验室可能面临越来越大的压力,为了竞争而减少自身安全和披露计划。但有了SB 53,开发者可以在竞争的同时确保他们对可能对公共安全构成风险的AI能力保持透明,创造了一个披露是强制而非可选的公平竞争环境。

未来发展与改进方向

尽管SB 53提供了强大的监管基础,但仍有几个领域可以进一步完善:

计算能力阈值的优化

法案目前根据训练AI系统所使用的计算能力(FLOPS)决定监管哪些AI系统。当前的阈值(10^26 FLOPS)是一个可接受的起点,但总是存在一些强大模型可能未被涵盖的风险。随着AI技术的发展,这一阈值需要定期评估和调整,以确保监管的全面性和有效性。

测试与评估细节的披露

开发者应被要求提供关于他们进行的测试、评估和缓解措施的更多细节。当Anthropic分享其安全研究、记录其红队测试并解释其部署决策时——正如我们通过前沿模型论坛与其他行业参与者一起所做的那样——它加强了而非削弱了我们的工作。更详细的披露将促进行业最佳实践的共享和改进。

监管规则的动态更新

随着AI技术的进步,监管规则也需要不断演变。监管机构应能够根据需要更新规则,以跟上新的发展步伐,并在安全与创新之间保持适当的平衡。这种灵活性对于应对AI技术的快速变化至关重要。

全球AI治理的启示

SB 53的通过不仅对加州具有重要意义,也为全球AI治理提供了宝贵经验。Anthropic鼓励加州通过该法案,并期待与华盛顿和其他世界各地的政策制定者合作,制定既保护公众利益又维护美国AI领导力的全面方法。

参议员维纳和州长纽森在负责任AI治理方面的领导力值得赞扬。问题不是我们是否需要AI治理——而是我们今天是否会深思熟虑地发展它,还是明天被动地应对。SB 53为前者提供了坚实的道路。

在AI技术日益强大的今天,监管与创新并非对立面,而是相辅相成的两个方面。SB 53法案体现了这一理念,它既为AI发展设定了安全底线,又为创新保留了充分空间。Anthropic的支持表明,负责任的AI企业不仅不畏惧监管,反而积极参与塑造监管框架,确保其既能保护公众利益,又不阻碍技术进步。

随着AI技术的不断发展,监管框架也需要持续演进。SB 53提供了一个良好的起点,但正如Anthropic所指出的,仍需在计算能力阈值、测试细节披露和规则更新机制等方面进一步完善。这种持续改进的态度正是AI治理成功的关键。

在全球范围内,AI治理需要国际合作与协调。SB 53的经验可以为其他地区和国家提供参考,帮助它们制定适合自身国情的AI监管政策。同时,国际标准的统一也将有助于减少监管碎片化,为全球AI企业创造更加公平的竞争环境。

结语

Anthropic支持SB 53法案的决定,标志着前沿AI企业开始主动参与监管框架的构建,而非被动接受规范。这一转变不仅反映了企业对社会责任的认知,也体现了对AI技术长期健康发展的深思熟虑。

SB 53法案通过'信任但验证'的原则,在确保安全与促进创新之间找到了平衡点。它既要求大型AI公司对其开发的最强大系统负责,又为初创企业提供了成长空间。这种差异化监管思路值得其他国家和地区借鉴。

未来,随着AI技术的不断进步,监管框架需要持续演进和完善。计算能力阈值的优化、测试评估细节的披露以及监管规则的动态更新,都是确保监管有效性的关键要素。

在全球AI治理的舞台上,SB 53法案提供了一个重要的参考案例。它表明,负责任的监管不仅不会阻碍创新,反而可以通过建立公平竞争环境和最佳实践共享机制,促进整个行业的健康发展。Anthropic的支持表态,以及与政策制定者的积极合作,将为全球AI治理树立新的标杆,推动人工智能技术在安全、可控的轨道上持续发展。