在人工智能(AI)领域,美国一直致力于保持其领先地位。最近,美国白宫发布了一份名为“赢得竞赛:美国人工智能行动计划”的综合战略,旨在巩固美国在人工智能发展方面的优势。这份计划着重强调了加速人工智能基础设施建设、联邦机构对人工智能的采纳、加强安全测试以及协调安全措施的重要性。Anthropic 公司对该计划表示赞赏,并认为其中的许多建议与该公司之前向科学和技术政策办公室(OSTP)提交的反馈相符。然而,Anthropic 认为,为了确保美国在人工智能领域的领导地位,严格的出口管制和提高人工智能开发的透明度仍然是至关重要的下一步。
加速人工智能基础设施建设与应用
人工智能行动计划将人工智能基础设施建设和应用置于优先地位,这与 Anthropic 公司在三月份向 OSTP 提交的意见一致。Anthropic 对政府简化数据中心和能源许可的承诺表示赞赏,认为这对于满足人工智能的电力需求至关重要。正如 Anthropic 在 OSTP 的提交以及宾夕法尼亚能源与创新峰会上所强调的那样,如果国内能源供应不足,美国的人工智能开发者可能会被迫将业务转移到海外,从而可能将敏感技术暴露给外国竞争对手。Anthropic 最近发布的“在美国建设人工智能”报告详细阐述了政府可以采取的措施,以加速美国人工智能基础设施的建设。Anthropic 期待与政府合作,共同扩大国内能源供应能力。
该计划中关于增加联邦政府对人工智能应用的建议,与 Anthropic 公司的政策重点和向白宫提出的建议高度一致。这些建议包括:
- 责成管理和预算办公室(OMB)解决联邦机构在人工智能应用方面面临的资源限制、采购限制和项目障碍。
- 启动一项信息征询(RFI),以确定阻碍人工智能创新的联邦法规,并由 OMB 协调改革工作。
- 更新联邦采购标准,消除阻碍各机构部署人工智能系统的障碍。
- 通过公私合作,促进人工智能在国防和国家安全领域的应用。
实现人工智能利益的民主化
Anthropic 认同该行动计划的重点,即确保更广泛地参与人工智能的持续开发和部署,并从中受益。
该行动计划延续了国家人工智能研究资源(NAIRR)试点项目,确保全国各地的学生和研究人员能够参与并为人工智能前沿的发展做出贡献。Anthropic 长期以来一直支持 NAIRR,并对其与试点项目的合作感到自豪。此外,该行动计划强调为失业工人提供快速再培训项目和人工智能预备学徒项目,这认识到先前技术变革中的不足,并表明了将人工智能的利益带给所有美国人的决心。
为了配合这些提议,Anthropic 致力于了解人工智能如何改变以及将如何改变经济。经济指数和经济期货计划旨在为研究人员和政策制定者提供所需的数据和工具,以确保人工智能的经济利益得到广泛分享,并适当管理风险。
促进安全的人工智能发展
未来几年将会出现强大的人工智能系统。该计划强调防御强大人工智能模型的滥用,并为未来与人工智能相关的风险做好准备,这是适当且出色的。特别是,Anthropic 赞扬政府优先支持对人工智能可解释性、人工智能控制系统和对抗鲁棒性的研究。这些是必须支持的重要研究方向,以帮助应对强大的人工智能系统。
Anthropic 很高兴该行动计划确认了国家标准与技术研究院人工智能标准与创新中心(CAISI)在评估前沿模型以解决国家安全问题方面的重要工作,并期待继续与其保持密切合作。Anthropic 鼓励政府继续投资于 CAISI。正如 Anthropic 在提交的意见中所指出的,先进的人工智能系统在与生物武器开发相关的能力方面表现出令人担忧的改进。CAISI 在开发测试和评估能力以应对这些风险方面发挥了主导作用。Anthropic 鼓励将这些努力集中在人工智能系统可能构成的最独特和最严重的国家安全风险上。
国家标准的必要性
除了测试之外,Anthropic 认为基本的人工智能开发透明度要求(例如公开报告安全测试和能力评估)对于负责任的人工智能开发至关重要。领先的人工智能模型开发者应遵守评估和管理其系统带来的灾难性风险的基本且可公开验证的标准。Anthropic 提出的前沿模型透明度框架侧重于这些风险。Anthropic 希望看到该报告在该主题上做更多的工作。
包括 Anthropic、OpenAI 和 Google DeepMind 在内的领先实验室已经实施了自愿安全框架,这表明负责任的开发和创新可以共存。事实上,随着 Claude Opus 4 的推出,Anthropic 主动激活了 ASL-3 保护,以防止滥用化学、生物、放射性和核武器(CBRN)的开发。这一预防措施表明,强大的安全保护措施不仅不会减缓创新,反而有助于构建更好、更可靠的系统。
Anthropic 与政府一样,担心过于严格的监管方法会造成不一致且繁琐的法律体系。理想情况下,这些透明度要求应来自政府,并采取单一国家标准的形式。然而,根据 Anthropic 的既定信念,即十年暂停州人工智能法律的提议过于简单粗暴,Anthropic 继续反对旨在阻止各州颁布措施以保护其公民免受强大人工智能系统可能造成的潜在危害的提议,如果联邦政府未能采取行动。
保持强大的出口管制
该行动计划指出,“拒绝外国竞争对手获得[先进人工智能计算能力]……事关地缘战略竞争和国家安全。” Anthropic 对此表示强烈赞同。这就是 Anthropic 担心政府最近在向中国出口 Nvidia H20 芯片问题上出现逆转的原因。
人工智能的发展一直受到规模定律的制约:系统的智能和能力取决于训练期间的计算、能源和数据输入的规模。虽然这些规模定律仍然有效,但最新和最具推理能力的模型已经证明,人工智能的能力与系统在给定任务上可用的计算量(或“推理”)成正比。推理期间可用的计算量受到芯片内存带宽的限制。虽然华为生产的芯片超过了 H20 的原始计算能力,但正如商务部长 Lutnick 和副部长 Kessler 最近作证的那样,华为继续在产量方面苦苦挣扎,而且没有国内生产的中国芯片与 H20 的内存带宽相匹配。
因此,H20 提供了独特且关键的计算能力,否则中国公司将无法获得,并将弥补中国在人工智能芯片方面的主要短缺。允许向中国出口 H20 将浪费一个机会,即在美国人工智能的主导地位即将开始新一轮竞争之际扩大这种优势。此外,美国人工智能芯片的出口不会转移中国共产党在人工智能领域实现自力更生的目标。
为此,Anthropic 强烈鼓励政府维持对 H20 芯片的管制。这些管制与行动计划建议的出口管制相符,并且对于确保和发展美国在人工智能领域的领先地位至关重要。
展望未来
Anthropic 的许多建议与人工智能行动计划之间的一致性表明,双方对人工智能的变革潜力以及维持美国领导地位所需的紧迫行动有着共同的理解。
Anthropic 期待与政府合作,实施这些举措,同时确保适当关注灾难性风险并保持强大的出口管制。双方可以共同努力,确保强大的人工智能系统由美国公司在美国安全地开发,反映美国的价值观和利益。
有关 Anthropic 政策建议的更多详细信息,请参阅 Anthropic 向 OSTP 提交的完整意见,以及 Anthropic 在负责任的人工智能开发和最近关于提高国内能源供应能力方面正在进行的工作。