前沿AI透明化势在必行:构建安全与责任并重的未来

1

前沿人工智能透明化的必要性:构建安全、负责任的未来

在人工智能(AI)技术飞速发展的当下,对前沿AI的透明度需求日益凸显。为了确保公共安全,并让开发这项强大技术的公司承担起应有的责任,我们亟需建立一套完善的透明化机制。尽管行业、政府、学术界正在努力制定统一的安全标准和全面的评估方法,但这一过程可能耗时数月甚至数年。在此期间,我们需要采取过渡性措施,以确保最强大的人工智能系统以安全、负责和透明的方式发展。

A building with a set of columns

前沿AI透明化框架:核心原则与实践

为此,我们提出了一项有针对性的透明化框架,该框架可在联邦、州或国际层面实施,仅适用于最大的AI系统和开发者。同时,该框架还确立了清晰的安全实践披露要求。我们的方法力求避免过度规范,因为我们深知,随着人工智能科学的不断发展,任何监管措施都必须保持轻量化和灵活性。重要的是,透明化不应阻碍AI创新,也不应延缓我们实现AI益处的能力,包括拯救生命的药物发现、公共利益的快速交付以及关键的国家安全功能。考虑到技术变革的步伐,僵化的政府强制标准尤其会适得其反,因为评估方法会在几个月内过时。

人工智能透明化的最低标准

以下是我们认为应指导人工智能透明化政策的核心原则:

  • 仅限于最大的模型开发者: 人工智能透明化应仅适用于构建最强大模型的最大前沿模型开发者。前沿模型的区分标准应包括计算能力、计算成本、评估性能、年收入和研发等指标的组合阈值。为了避免给创业生态系统和小型开发者带来负担,对于国家安全风险较低或造成灾难性损害风险较低的模型,该框架应包括适当的豁免。我们欢迎创业公司社区就这些阈值应如何设定提供意见。在内部,我们讨论了以下阈值示例:年收入超过1亿美元;或研发或资本支出每年约10亿美元。这些范围界定阈值应随着技术和行业格局的发展而定期审查。
  • 创建安全开发框架: 要求受监管的前沿模型开发者制定安全开发框架,阐述他们将如何评估和降低模型中不合理的风险。这些风险必须包括化学、生物、放射性和核危害的产生,以及由未对齐的模型自主性造成的危害。安全开发框架仍是一种不断发展的安全工具,因此任何提案都应力求灵活性。
  • 公开安全开发框架: 安全开发框架应在人工智能公司注册和维护的面向公众的网站上公开,但须对敏感信息进行合理的编辑保护。这将使研究人员、政府和公众能够随时了解当今部署的人工智能模型。披露应附带一份自我证明,证明实验室符合其已发布的安全开发框架的条款。
  • 发布系统卡: 系统卡或其他文档应总结所需的测试和评估程序、结果和缓解措施(但须对可能损害公共安全或模型安全和保障的信息进行适当的编辑)。系统卡还应在部署时公开披露,并在模型进行重大修改时进行更新。
  • 通过禁止虚假陈述来保护举报人: 明确规定实验室就其框架的遵守情况撒谎是违法行为。这一澄清创建了一个明确的法律违规行为,使现有的举报人保护措施得以适用,并确保执法资源完全集中在从事故意不当行为的实验室上。
  • 透明度标准: 一个可行的人工智能透明度框架应具有一套最低标准,以便在适应人工智能发展不断变化的性质的同时,加强安全和公共安全。鉴于人工智能安全实践仍处于早期阶段,像Anthropic这样的前沿开发者正在积极研究最佳实践,因此任何框架都必须设计为可演进的。标准应从灵活、轻量级的要求开始,随着行业、政府和其他利益相关者之间达成共识的最佳实践而不断调整。

透明化框架的益处与影响

这种透明化方法揭示了行业在安全方面的最佳实践,并有助于为负责任的实验室如何训练其模型设定基线,确保开发者满足基本的问责标准,同时使公众和政策制定者能够区分负责任和不负责任的做法。例如,我们在此描述的安全开发框架类似于Anthropic自己的负责任扩展政策以及来自领先实验室的其他政策(Google DeepMindOpenAIMicrosoft),所有这些实验室都已经实施了类似的方法,同时发布了前沿模型。将安全开发框架透明度要求纳入法律不仅可以标准化行业最佳实践而无需将其固定下来,还可以确保披露(现在是自愿的)在模型变得更加强大时不会在未来被撤回。

对于人工智能模型是否以及何时可能构成灾难性风险,各方观点不一。安全开发框架和系统卡的透明度要求可以帮助政策制定者获得他们需要的证据,以确定是否需要进一步监管,并向公众提供有关这项强大的新技术的重要信息。

随着模型的进步,我们拥有前所未有的机会来加速科学发现、医疗保健和经济增长。如果没有安全和负责任的开发,一次灾难性的失败可能会使进展停滞数十年。我们提出的透明化框架提供了一个切实可行的第一步: 公开了解安全实践,同时保持私营部门的敏捷性,以实现人工智能的变革潜力。

透明化框架的实施与未来展望

在实施这一透明化框架时,我们需要关注几个关键方面。首先,是确保框架的适用范围精准,避免对小型开发者造成不必要的负担,同时覆盖到真正具有潜在风险的大型前沿模型。其次,是建立有效的监督和执行机制,确保开发者遵守透明化要求,并对违规行为进行惩处。最后,是持续评估和更新框架,以适应人工智能技术的快速发展和不断变化的安全风险。

此外,我们还需要加强国际合作,推动全球范围内的人工智能透明化。通过分享最佳实践、共同制定标准和规范,我们可以共同应对人工智能带来的挑战,确保这项技术能够为全人类带来福祉。只有通过开放、透明和负责任的方式,我们才能充分释放人工智能的潜力,构建一个更加安全、繁荣和可持续的未来。

透明化框架的实施并非一蹴而就,需要各方共同努力。开发者应积极参与框架的制定和实施,主动披露安全实践,并接受监督和评估。政府应提供必要的政策支持和资源保障,确保框架的有效运行。研究机构和专家应加强对人工智能安全风险的研究,为框架的完善提供科学依据。公众也应积极参与讨论和监督,共同推动人工智能的健康发展。

总而言之,前沿人工智能的透明化是确保其安全、负责任发展的关键。通过建立清晰的透明化框架,我们可以让公众了解人工智能的风险和益处,让开发者承担起应有的责任,让政策制定者能够做出明智的决策。只有这样,我们才能充分利用人工智能的潜力,为人类创造更美好的未来。

随着人工智能技术的不断进步,我们有理由相信,一个更加透明、安全和负责任的人工智能时代即将到来。让我们携手努力,共同迎接这个充满机遇和挑战的时代!