前沿AI透明化:构建安全、负责且可信赖的AI未来

1

在人工智能(AI)技术以前所未有的速度发展的时代,确保其安全、负责和透明的开发与应用至关重要。尤其是在前沿AI领域,即那些计算能力强大、性能卓越的模型,其潜在影响深远,需要我们采取积极措施来保障公共安全,并对开发这些技术的公司进行问责。本文旨在探讨前沿AI透明化的必要性,并提出一个可行的框架,以应对这一挑战。

AI透明化的紧迫性

人工智能的快速发展为社会带来了巨大的机遇,但也伴随着潜在的风险。从拯救生命的药物发现加速公共服务的交付,再到增强国家安全,AI的应用前景广阔。然而,如果不加以适当的监管和透明化,AI也可能被滥用,造成无法挽回的损失。

A building with a set of columns

行业、政府、学术界以及其他利益相关者正在努力制定统一的安全标准和评估方法,但这需要时间和资源。在此期间,我们需要采取临时措施,确保强大的AI系统在安全、负责和透明的环境中开发。一个有针对性的透明化框架,可以在联邦、州或国际层面实施,并仅适用于最大的AI系统和开发者,同时建立明确的安全实践披露要求。

透明化框架的核心原则

1. 仅限于大型模型开发者

AI透明化政策应仅适用于构建最强大模型的大型前沿模型开发者。这些模型通常具有极高的计算能力、计算成本和评估性能。为了避免给初创企业和小型开发者带来不必要的负担,该框架应包括适当的豁免条款。例如,年收入cutoff金额可能在1亿美元左右,或研发或资本支出在每年10亿美元左右。这些范围阈值应定期审查,以适应技术和行业的发展。

2. 创建安全开发框架

要求相关的前沿模型开发者建立一个安全开发框架,详细说明如何评估和减轻模型中不合理的风险。这些风险必须包括化学、生物、放射性和核危害的产生,以及由未对齐的模型自主性造成的危害。由于安全开发框架仍在不断发展,任何提案都应力求灵活性。

3. 公开安全开发框架

安全开发框架应在AI公司注册和维护的公开网站上披露给公众,但对敏感信息提供合理的编辑保护。这将使研究人员、政府和公众能够随时了解当前部署的AI模型。披露应附带一份自我证明,证明实验室符合其发布的安全开发框架的条款。

4. 发布系统卡

系统卡或其他文档应总结测试和评估程序、结果和所需的缓解措施(但须对可能损害公共安全或模型安全性的信息进行适当的编辑)。系统卡还应在部署时公开披露,并在模型进行重大修改时更新。

5. 保护举报人

明确规定,实验室对其框架的遵守情况撒谎是违法行为。这种澄清构成了一项明确的法律违规行为,使现有的举报人保护措施能够适用,并确保执法资源完全集中在从事故意不当行为的实验室上。

6. 透明度标准

一个可行的AI透明度框架应具有一套最低标准,以便在适应AI开发不断发展的性质的同时,加强安全性和公共安全。鉴于AI安全和安全实践仍处于早期阶段,前沿开发者正在积极研究最佳实践,任何框架都必须为发展而设计。标准应从灵活、轻量级的要求开始,随着行业、政府和其他利益相关者之间达成共识的最佳实践的出现,这些要求可以进行调整。

透明化框架的益处

这种透明化方法有助于揭示行业的安全最佳实践,并为负责任的实验室如何训练其模型设定基线,确保开发者符合基本的问责标准,同时使公众和政策制定者能够区分负责任和不负责任的做法。

例如,我们在此描述的安全开发框架类似于Anthropic自己的负责任的扩展政策以及来自领先实验室(Google DeepMind, OpenAI, Microsoft)的其他政策,所有这些实验室都已实施类似的方法,同时发布前沿模型。将安全开发框架透明度要求纳入法律不仅可以标准化行业最佳实践,而不会将其固定下来,还可以确保披露(现在是自愿的)在未来模型变得更强大时不会被撤回。

关于AI模型是否以及何时可能构成灾难性风险,各方观点不一。安全开发框架和系统卡的透明度要求可以帮助政策制定者获得他们需要的证据,以确定是否需要进一步的监管,并向公众提供有关这项强大的新技术的重要信息。

抓住机遇,应对挑战

随着模型的进步,我们拥有前所未有的机会来加速科学发现、医疗保健和经济增长。但如果没有安全和负责任的开发,一次灾难性的失败可能会使进展停滞数十年。我们提出的透明化框架提供了一个切实可行的第一步:公开了解安全实践,同时保持私营部门的敏捷性,以实现AI的变革潜力。

前沿AI透明化框架的意义

1. 促进行业自律与合作

通过要求前沿AI开发者公开其安全开发框架和系统卡,该框架鼓励行业自律和合作。企业将更有动力采用最佳实践,并与其他企业分享经验,以提高整个行业的安全水平。这种合作精神有助于建立一个更加安全和负责任的AI生态系统。

2. 增强公众信任与参与

透明化框架使公众能够了解AI系统的开发和部署方式,从而增强公众对AI技术的信任。通过公开披露安全实践和评估结果,企业可以向公众证明其对安全的承诺,并鼓励公众参与到AI治理的讨论中来。

3. 促进创新与竞争

虽然透明化可能会增加一些合规成本,但它也有助于促进创新和竞争。通过公开披露安全实践,企业可以相互学习,并在此基础上进行改进。此外,透明化还可以降低新进入者的门槛,鼓励更多企业参与到AI创新中来。

4. 应对潜在风险

透明化框架有助于及早发现和应对AI系统可能带来的潜在风险。通过公开披露安全实践和评估结果,企业可以更容易地发现潜在的安全漏洞和偏见,并及时采取措施进行修复。这有助于降低AI系统被滥用的风险,并确保其安全可靠地运行。

结论与展望

前沿AI的透明化是确保其安全、负责和可持续发展的关键。通过采纳本文提出的透明化框架,我们可以建立一个更加可信赖的AI生态系统,并充分利用AI技术为社会带来的巨大机遇。然而,我们也必须认识到,透明化只是AI治理的一个方面,还需要与其他措施相结合,才能实现全面的AI安全。展望未来,我们需要继续加强国际合作,共同应对AI带来的挑战,并确保其为全人类的福祉服务。

通过本文的分析,我们可以看到,前沿AI透明化框架的实施不仅有助于提升AI技术的安全性,还能促进创新、增强公众信任,并最终推动AI技术的健康发展。在这个快速变化的时代,采取积极的措施来确保AI的透明化,是我们走向一个更加安全、繁荣的未来的关键一步。