前沿人工智能透明化的必要性:保障安全与促进创新
在人工智能(AI)技术飞速发展的今天,尤其是前沿AI的研发,确保其透明化显得尤为重要。透明化不仅关乎公共安全,更是对开发这些强大技术的公司进行问责的关键。随着AI技术的不断精进,我们需要在行业、政府、学术界等多方共同努力下,制定出统一的安全标准和全面的评估方法。然而,这个过程可能耗时数月甚至数年。在此期间,我们必须采取过渡性措施,以确保那些极具潜力的人工智能系统能够以安全、负责和透明的方式被开发。
目标明确的透明化框架
因此,一个有针对性的透明化框架应运而生。这个框架可以在联邦、州或国际层面应用,并且仅适用于那些规模最大的人工智能系统和开发者。同时,它还需明确安全实践的信息披露要求。
我们的方法力求避免过度规范。因为人工智能科学仍在不断发展,任何监管措施都必须保持轻量化和灵活性。重要的是,不应阻碍人工智能的创新,也不应减缓我们实现人工智能益处的步伐,包括拯救生命的药物发现、公共福利的快速传递以及关键的国家安全职能。考虑到技术变革的速度,过于僵化的政府标准可能会适得其反,因为评估方法在几个月内就会过时。
人工智能透明化的最低标准
以下是我们认为应该指导人工智能透明化政策的核心原则:
1. 限制在最大的模型开发者范围内应用
人工智能透明化应仅适用于那些构建最强大模型的前沿模型开发者。这些前沿模型的特点是计算能力、计算成本、评估性能、年度收入和研发投入等多项指标均达到一定阈值。为了避免给初创企业生态系统和小型开发者带来不必要的负担,对于那些对国家安全风险较低或造成灾难性危害可能性较小的模型,框架应包含适当的豁免条款。我们欢迎初创企业社区就这些阈值提出建议。内部讨论中,我们曾提出以下示例:年度收入cutoff金额约为1亿美元;或年度研发或资本支出约为10亿美元。这些范围界定阈值应随着技术和行业格局的发展而定期审查。
案例分析: 考虑一家专注于特定行业应用的小型AI公司,例如农业领域的智能灌溉系统。如果该公司年度收入远低于1亿美元,研发投入也有限,那么将其纳入严格的透明化框架可能并不合适。透明化框架应侧重于那些可能对社会产生广泛影响的大型通用AI模型。
2. 创建安全开发框架
要求受监管的前沿模型开发者建立一个安全开发框架,详细说明他们将如何评估和减轻模型中不合理的风险。这些风险必须包括化学、生物、放射和核危害的产生,以及由于模型自主性错位造成的危害。由于安全开发框架仍是一种不断发展的安全工具,任何提案都应力求灵活性。
数据佐证: 根据Gartner的报告,到2025年,缺乏有效风险管理的安全漏洞将导致75%的人工智能项目失败。这表明建立健全的安全开发框架对于确保人工智能的负责任使用至关重要。
3. 公布安全开发框架
安全开发框架应在人工智能公司注册并维护的面向公众的网站上公开披露,但可对敏感信息进行合理的编辑保护。这将使研究人员、政府和公众能够随时了解当今部署的人工智能模型。披露应附带一份自我认证,证明实验室符合其已发布的安全开发框架的条款。
实际应用: 假设一家公司开发了一种用于诊断疾病的人工智能模型。该公司应公开其安全开发框架,详细说明用于评估模型准确性和安全性的流程,以及减轻潜在偏见的措施。这有助于建立公众信任,并允许外部专家审查其做法。
4. 发布系统卡
系统卡或其他文档应总结所需的测试和评估程序、结果和缓解措施(但可对可能危及公共安全或模型安全性的信息进行适当的编辑)。系统卡也应在部署时公开披露,并在模型进行重大修改时进行更新。
对比分析: 类似于食品包装上的营养成分表,系统卡可以帮助用户了解人工智能模型的“成分”和“营养价值”。例如,系统卡应披露模型在不同数据集上的性能指标、潜在的偏见以及已采取的缓解措施。
5. 通过禁止虚假陈述来保护举报人
明确规定实验室就其框架的合规性撒谎是违法行为。这一澄清创建了一个明确的法律违规行为,使现有的举报人保护措施能够适用,并确保执法资源完全集中在从事有目的不当行为的实验室上。
法律视角: 类似于《萨班斯-奥克斯利法案》对财务报告的要求,禁止虚假陈述可以提高人工智能行业的透明度和问责制。举报人可以安全地举报违规行为,而不必担心遭到报复。
6. 透明度标准
一个可行的人工智能透明度框架应具有一套最低标准,以便在适应人工智能发展演变性质的同时,加强安全和公共安全。鉴于人工智能安全实践仍处于早期阶段,像Anthropic这样的前沿开发者正在积极研究最佳实践,因此任何框架都必须为发展而设计。标准应从灵活、轻量级的要求开始,随着行业、政府和其他利益相关者之间达成共识的最佳实践的出现,这些要求可以进行调整。
这种透明化方法揭示了行业在安全方面的最佳实践,并有助于为负责任的实验室如何训练其模型设定基准,确保开发者达到基本的问责标准,同时使公众和政策制定者能够区分负责任和不负责任的做法。例如,我们在此描述的安全开发框架类似于Anthropic自己的“负责任的扩展政策”以及来自领先实验室的其他政策(Google DeepMind, OpenAI, Microsoft)。所有这些实验室都已经实施了类似的方法,同时发布了前沿模型。将安全开发框架透明度要求纳入法律,不仅可以标准化行业最佳实践,而不会将其固定下来,还可以确保披露(现在是自愿的)在模型变得更强大时不会在未来被撤回。
对于人工智能模型是否以及何时可能构成灾难性风险,各方观点不一。安全开发框架和系统卡的透明度要求可以帮助政策制定者获得他们所需的证据,以确定是否需要进一步的监管,并向公众提供有关这项强大的新技术的重要信息。
随着模型的进步,我们拥有前所未有的机会来加速科学发现、医疗保健和经济增长。如果没有安全和负责任的开发,一次灾难性的失败可能会使进展停滞数十年。我们提议的透明度框架提供了一个切实可行的第一步: 公开了解安全实践,同时保持私营部门的敏捷性,以实现人工智能的变革潜力。
总而言之,前沿人工智能的透明化是保障技术安全、促进负责任创新、建立公众信任以及为政策制定者提供决策依据的关键。通过采纳上述最低标准,我们可以创建一个既能促进人工智能发展,又能最大限度地降低潜在风险的框架。这个框架不仅应适用于大型模型开发者,还应为小型企业和初创公司提供适当的豁免,以避免不必要的负担。只有这样,我们才能充分利用人工智能的潜力,同时确保其安全和符合道德地使用。
未来的研究方向包括:
- 开发更精确的风险评估方法,以识别和量化人工智能模型的潜在危害。
- 探索新的技术,以提高人工智能系统的透明度和可解释性。
- 建立一个跨学科的合作平台,汇集人工智能专家、政策制定者、伦理学家和社会科学家,共同应对人工智能带来的挑战和机遇。
通过持续的对话、创新和合作,我们可以确保人工智能的发展符合人类的共同利益,并为所有人创造一个更美好的未来。