人工智能前沿发展:透明度是通往安全与创新的必由之路
当前,人工智能(AI)技术正以超乎想象的速度迭代更新,以前所未有的深度和广度渗透到社会各个层面。从颠覆性的药物研发到高效的公共服务交付,再到关键的国家安全应用,AI的潜力无疑是巨大的。然而,伴随其强大能力而来的,是潜在的风险与挑战。为了确保这一强大技术能够以安全、负责任且可控的方式发展,行业界、政府机构、学术界及其他利益攸关方正协力探索建立统一的安全标准与全面的评估方法。这是一个漫长且复杂的进程,可能耗时数月乃至数年。在此过渡时期,一套行之有效、具有前瞻性的透明度框架显得尤为关键,它能够为前沿AI的安全、负责任与透明化发展提供即时指导。
我们深知,任何旨在规范AI发展的举措都必须保持高度的灵活性与适应性,以避免扼杀技术创新,或延缓我们充分实现AI所能带来的诸多福祉。AI科学的演进速度之快,意味着僵化的政府强制标准可能适得其反,因为评估方法可能在短短数月内便因技术变革而过时。因此,我们倡导一个精准聚焦且轻量化的透明度框架。该框架应能够适用于联邦、州乃至国际层面,并且仅针对那些开发最具能力的大型AI系统及其开发者,同时明确规定了安全实践的披露要求。
健全AI透明度政策的核心原则
一套切实可行的AI透明度框架,其核心在于平衡公共安全需求与行业发展活力。以下是我们认为应作为AI透明度政策基石的几项核心原则:
1. 适用范围:仅限于大型模型开发者
AI透明度要求应精准定位,只适用于那些构建最强大前沿模型的大型开发者。这些前沿模型通常以其在计算能力、研发投入、评估表现、年收入或研发支出等方面的综合高阈值来区分。此举旨在避免对初创企业生态系统和小型开发者造成不必要的负担,因为他们所开发模型的国家安全风险或引发灾难性危害的风险相对较低。我们鼓励初创社区积极参与,共同探讨并确定合理的门槛。例如,可以考虑将年收入设定在1亿美元左右,或将年度研发与资本支出设定在10亿美元左右作为参考阈值。当然,这些界定范围的阈值应随着技术与行业格局的演变而定期进行审视和调整,以确保其时效性和适用性。
2. 构建安全开发框架(SDF)
要求受监管的前沿模型开发者建立并遵循一套完善的“安全开发框架”(Secure Development Framework, SDF)。该框架应详细阐述开发者如何系统性地评估和缓解模型可能带来的不合理风险。这些风险涵盖了从可能引发的化学、生物、放射性与核(CBRN)危害,到由模型自主性失调所导致的潜在损害等多个维度。鉴于SDF作为一种安全工具仍在不断演进和完善之中,任何相关政策提案都必须致力于保持其灵活性,鼓励最佳实践的不断探索与采纳。
3. 公开披露安全开发框架
所建立的SDF应在AI公司注册并维护的公共网站上向公众披露。在披露过程中,对于可能涉及敏感信息的细节,应进行合理的匿名化或编辑处理,以确保信息安全而不影响透明度。此举旨在使研究人员、政府机构和广大公众能够及时了解当前部署的AI模型所遵循的安全实践。此外,公司应附带一份自我声明,证明其实验室正严格遵守所发布的SDF条款。这种公开透明的承诺,对于建立公众信任和促进负责任的AI发展至关重要。
4. 发布“系统卡”或类似文档
开发者应公开发布“系统卡”(System Card)或其他类似形式的文档,用以总结模型的测试、评估程序、结果以及所采取的缓解措施。同样,对于可能危及公共安全或模型安全性的敏感信息,可以进行适当的编辑。系统卡应在模型部署时即公开披露,并在模型发生重大修订时及时更新。这种详尽的文档能够为利益相关者提供关键信息,帮助他们理解模型的性能、局限性及其安全保障措施,从而做出更明智的判断。
5. 保护吹哨人并禁止虚假陈述
在法律层面明确规定,如果实验室对其遵守安全开发框架的情况做出虚假陈述,将构成违法行为。这一澄清为现有吹哨人保护机制的适用奠定了清晰的法律基础,确保了执法资源能够精准聚焦于那些故意实施不当行为的实验室。通过强化法律责任,不仅能有效震慑潜在的违规行为,更能鼓励内部人员在发现问题时勇敢地站出来,从而形成更强大的内部监督机制,进一步提升AI开发的透明度和责任感。
6. 设立动态演进的透明度标准
一个切实可行的AI透明度框架应包含一套最低限度的标准,使其能够在提升安全性和公共利益的同时,适应AI发展瞬息万变的特性。鉴于AI安全与保障实践仍处于早期探索阶段,领先的开发者正积极研究并确立最佳实践,任何框架都必须被设计为能够持续演进。最初的标准应是灵活、轻量级的要求,能够随着行业、政府及其他利益攸关方之间共识最佳实践的出现而不断调整和完善。这种适应性是确保框架长期有效性的关键,避免其因技术进步而迅速失效。
透明度:赋能AI治理与加速创新
上述透明度方法为行业最佳安全实践提供了清晰的指导,并有助于为负责任的实验室如何训练其模型设定基线,确保开发者达到基本的问责标准。同时,它也使公众和政策制定者能够区分负责任与不负责任的实践。例如,我们在此描述的安全开发框架与当前一些领先实验室(如某知名科技巨头的“负责任规模化政策”及其他先进安全框架)已实施的类似方法相契合。将安全开发框架的透明度要求上升为法律层面,不仅能在不固化行业最佳实践的前提下实现标准化,还能确保这些目前自愿性的披露不会在未来模型能力变得更强大时被撤回。
尽管对于AI模型何时以及是否可能带来灾难性风险存在不同观点,但关于安全开发框架和系统卡的透明度要求,无疑能为政策制定者提供所需的证据基础,以判断是否需要进一步的监管。同时,它也为公众提供了关于这一强大新兴技术的重要信息,促进更广泛的社会对话和理解。
随着AI模型的不断进步,我们正面临着加速科学发现、医疗健康进步和经济增长的空前机遇。然而,若缺乏安全与负责任的开发,一次灾难性的失败便可能使数十年的进步戛然而止。我们所提出的透明度框架提供了一个切实可行的第一步:它在保障私营部门灵活交付AI变革性潜力的同时,实现了对安全实践的公开可见性。这种平衡至关重要,它确保了AI的无限潜力能够以惠及全人类的方式安全、可持续地释放。