Anthropic 签署欧盟《行为准则》:人工智能发展的新里程碑

2

Anthropic 签署欧盟《行为准则》:人工智能发展的新篇章

2025年7月21日,人工智能前沿企业Anthropic宣布,经过审慎评估,公司计划签署欧盟的《通用人工智能行为准则》。Anthropic 坚信,该准则将有力推动人工智能领域的透明度、安全性和责任制,而这些原则长期以来都是 Anthropic 倡导的核心价值。若能得到周全的实施,欧盟的《人工智能法案》和《行为准则》将助力欧洲充分利用人工智能这一划时代的技术,进而驱动创新和提升竞争力。

有分析指出,到2030年代中期,人工智能有望每年为欧盟经济贡献超过一万亿欧元的价值。而《行为准则》与欧盟的《人工智能欧洲行动计划》相辅相成,充分展现了灵活的安全标准如何在保障创新的同时,促进人工智能的广泛应用。这一策略突显了欧洲在人工智能变革浪潮中保持竞争力的机遇和必要性。借助透明的风险评估机制,我们将加速应对欧洲所面临的最紧迫挑战:推动科研进步、优化公共服务以及提升产业竞争力。

欧洲议会

我们已经看到了人工智能带来的曙光。例如,诺和诺德公司正在加速突破性的药物发现,Legora 公司正在革新法律工作模式,欧洲议会也在扩大公民对数十年历史档案的访问权限。为了确保这些益处能够充分实现,同时最大限度地减少潜在风险,我们需要提高人工智能安全性和透明度实践的公开性,同时也要保障私营企业在交付人工智能变革性潜力方面的敏捷性。

坚定透明承诺

正如 Anthropic 此前强调的,人工智能行业需要建立健全的透明框架,以确保企业能够负责任地记录其识别、评估和缓解风险的方式。欧盟《行为准则》通过强制性的安全和保障框架,确立了这一基准。这些框架以 Anthropic 自身的《负责任的扩展策略》为基础,并将详细阐述评估和缓解系统性风险的重要流程,特别是那些与化学、生物、放射性和核武器 (化生放核) 相关的灾难性风险。

保持灵活性

人工智能技术日新月异,这就要求相关政策必须具备灵活性,能够随着技术发展而不断调整。

自从我们首次发布《负责任的扩展策略》以来,近两年时间里,我们根据实际实施经验对其进行了多次完善。例如,我们最近的更新明确了哪些参与者属于 ASL-3 安全标准的范围。这一决定是基于对相关威胁模型和模型能力的更深入理解而做出的。

作为一个行业,我们仍在不断探索评估《行为准则》中提出的系统性风险的最佳实践。不同的风险需要不同的方法。诸如前沿模型论坛之类的第三方组织正在发挥关键作用,它们致力于建立通用的安全实践和评估标准,并使其随着技术发展而不断演进。这些组织搭建了行业和政府之间的桥梁,将技术见解转化为可行的政策。

我们致力于与欧盟人工智能办公室和安全组织合作,以确保《行为准则》既能保持稳健性,又能对新兴技术做出快速响应。这种协作方式——将监管框架与灵活性相结合——对于欧洲充分利用人工智能的益处,同时在全球舞台上有效竞争至关重要。

Anthropic

人工智能赋能欧洲:Anthropic 的实践案例

Anthropic 的技术正在欧洲各行各业发挥着积极作用,以下是一些实际案例:

  1. 加速药物发现: 诺和诺德 (Novo Nordisk) 正在利用 Anthropic 的人工智能模型,显著加速突破性药物的研发过程。通过分析大量的生物数据和临床试验结果,人工智能模型可以更快速地识别潜在的药物靶点,预测药物的疗效和安全性,从而大大缩短药物研发周期,降低研发成本。

  2. 革新法律工作: Legora 是一家位于欧洲的法律科技公司,该公司正在使用 Anthropic 的人工智能技术来革新法律工作模式。人工智能可以帮助律师快速分析大量的法律文件,识别关键信息,并生成法律文书。这不仅可以提高律师的工作效率,还可以降低法律服务的成本,使更多人能够获得优质的法律服务。

  3. 开放历史档案: 欧洲议会正在利用 Anthropic 的人工智能技术,将其数十年历史的档案数字化,并向公众开放。通过人工智能技术,这些档案可以被自动识别、分类和索引,从而方便公众搜索和访问。这有助于提高公众对欧洲历史的了解,并促进民主参与。

欧盟《行为准则》:人工智能治理的关键一步

欧盟《行为准则》的出台,是人工智能治理领域的重要里程碑。该准则通过建立一系列明确的行为规范,旨在确保人工智能技术在发展过程中,能够充分尊重人权、促进社会公益,并避免潜在的风险。Anthropic 积极支持并签署该准则,体现了公司对负责任的人工智能发展的坚定承诺。

《行为准则》的核心内容包括:

  • 透明度: 要求人工智能系统开发者公开其系统的设计、数据来源和算法逻辑,以便用户了解系统的运作机制,并对其做出合理的评估。
  • 可解释性: 强调人工智能系统应具备可解释性,即能够向用户解释其决策过程和结果,以便用户理解和信任系统。
  • 安全性: 强调人工智能系统应具备安全性,即能够防止恶意攻击和滥用,并保护用户的数据和隐私。
  • 公平性: 强调人工智能系统应具备公平性,即避免产生歧视性或不公正的结果,并确保所有用户都能平等地受益于该技术。
  • 责任制: 强调人工智能系统开发者应对其系统的行为负责,即承担因系统故障或滥用所造成的损失。

灵活应对,持续优化

人工智能技术的快速发展,对人工智能治理提出了更高的要求。欧盟《行为准则》充分考虑了这一因素,强调了灵活性和适应性。该准则并非一成不变的,而是会根据技术发展和社会需求,不断进行调整和完善。

Anthropic 在实践中也始终坚持灵活应对的原则。公司根据实际情况,不断优化自身的《负责任的扩展策略》,以确保其能够有效地应对各种潜在风险。例如,公司最近对 ASL-3 安全标准的范围进行了明确,这是基于对相关威胁模型和模型能力的更深入理解而做出的。

行业合作,共筑安全

人工智能安全是一个复杂的系统性问题,需要行业各方的共同努力。Anthropic 积极参与行业合作,与欧盟人工智能办公室、安全组织以及其他人工智能企业共同探索最佳实践,并推动人工智能安全标准的制定。

前沿模型论坛等第三方组织在行业合作中发挥着关键作用。这些组织搭建了行业和政府之间的桥梁,将技术见解转化为可行的政策,并促进人工智能安全领域的知识共享和合作。

结语:共创人工智能的美好未来

Anthropic 签署欧盟《行为准则》,是公司对负责任的人工智能发展承诺的再次 подтверждение. 我们坚信,通过透明、安全、公平和负责任的实践,人工智能将为欧洲乃至全球带来巨大的益处。我们期待与欧盟、行业伙伴以及社会各界携手合作,共同开创人工智能的美好未来。

在人工智能的浪潮中,Anthropic 不仅关注技术创新,更注重伦理和社会责任。我们相信,只有在负责任的框架下,人工智能才能真正成为推动社会进步的强大引擎。Anthropic 将继续秉持开放、合作的态度,与各方共同探索人工智能的无限可能,为人类创造更加美好的未来。