美国人工智能行动计划解读:机遇与挑战并存
2025年7月23日,白宫发布了题为《赢得竞赛:美国人工智能行动计划》的综合性战略,旨在保持美国在人工智能(AI)发展领域的领先地位。该计划着重强调加速AI基础设施建设与联邦政府的采纳,同时加强安全测试与安全协调,这些举措无疑令人鼓舞。值得注意的是,该计划的诸多建议与Anthropic公司此前向科学和技术政策办公室(OSTP)提交的反馈意见高度一致。尽管该计划旨在推动美国在人工智能领域的进步,但我们认为,严格的出口管制和AI开发透明度标准仍然是确保美国AI领导地位的关键后续步骤。
加速AI基础设施建设与采纳
行动计划优先考虑AI基础设施建设与采纳,这与Anthropic在3月份提交给OSTP的意见相符。
我们赞赏政府致力于简化数据中心和能源许可审批流程,以满足AI对能源的需求。正如我们在OSTP提交的意见以及宾夕法尼亚能源与创新峰会上所强调的那样,如果国内能源供应不足,美国AI开发商可能被迫将业务迁往海外,从而可能将敏感技术暴露给外国对手。我们最近发布的《在美国建设AI》报告详细阐述了政府可以采取的措施,以加速我国AI基础设施的建设。我们期待与政府合作,共同扩大国内能源供应能力。
该计划中关于增加联邦政府对AI采纳的建议,也与Anthropic的政策重点和对白宫的建议密切相关,其中包括:
- 责成管理和预算办公室(OMB)解决资源约束、采购限制以及联邦AI采纳的程序性障碍。
- 启动信息征询(RFI),以识别阻碍AI创新的联邦法规,并由OMB协调改革工作。
- 更新联邦采购标准,以消除阻止机构部署AI系统的障碍。
- 通过公私合作,促进AI在国防和国家安全领域的应用。
普及AI的益处
我们与行动计划的重点一致,即确保广泛参与AI的持续开发和部署,并从中受益。
行动计划延续了国家AI研究资源(NAIRR)试点项目,确保全国各地的学生和研究人员能够参与并为AI前沿的发展做出贡献。我们长期以来一直支持NAIRR,并为我们与该试点项目的合作感到自豪。此外,行动计划强调为失业工人提供快速再培训项目和AI预备学徒项目,这认识到先前技术转型中的错误,并表明了将AI的益处传递给所有美国人的决心。
为了补充这些提议,我们还致力于了解AI如何改变以及将如何改变我们的经济。《经济指数》和《经济期货计划》旨在为研究人员和政策制定者提供所需的数据和工具,以确保AI的经济利益得到广泛分享,并适当管理风险。
促进安全的AI开发
未来几年将开发出强大的AI系统。该计划强调防御强大AI模型的滥用,并为未来与AI相关的风险做好准备,这是适当且出色的。特别是,我们赞扬政府优先支持对AI可解释性、AI控制系统和对抗性鲁棒性的研究。这些是必须支持的重要研究方向,以帮助我们应对强大的AI系统。
我们很高兴行动计划确认了国家标准与技术研究院AI标准与创新中心(CAISI)在评估前沿模型以解决国家安全问题方面的重要工作,并且我们期待继续与他们保持密切合作。我们鼓励政府继续投资于CAISI。正如我们在提交的意见中所指出的那样,先进的AI系统在与生物武器开发相关的能力方面表现出令人担忧的改进。CAISI在开发测试和评估能力以应对这些风险方面发挥了主导作用。我们鼓励将这些努力集中在AI系统可能构成的最独特和最紧迫的国家安全风险上。
对国家标准的必要性
除了测试之外,我们认为基本的AI开发透明度要求(例如,公开报告安全测试和能力评估)对于负责任的AI开发至关重要。领先的AI模型开发商应遵守评估和管理其系统构成的灾难性风险的基本且可公开验证的标准。我们提出的前沿模型透明度框架侧重于这些风险。我们希望看到该报告在该主题上做更多的工作。
包括Anthropic、OpenAI和Google DeepMind在内的领先实验室已经实施了自愿安全框架,这表明负责任的开发和创新可以共存。事实上,随着Claude Opus 4的推出,我们主动激活了ASL-3保护,以防止滥用化学、生物、放射性和核武器(CBRN)的开发。这一预防措施表明,强大的安全保护措施不仅不会减缓创新,反而有助于我们构建更好、更可靠的系统。
我们与政府一样,对过度规范的监管方法可能造成不一致且繁琐的法律体系表示担忧。理想情况下,这些透明度要求应来自政府,并通过单一国家标准实施。然而,根据我们所表达的观点,即十年内暂停州AI法律过于简单粗暴,我们继续反对旨在阻止各州颁布措施以保护其公民免受强大AI系统可能造成的潜在危害的提议,如果联邦政府未能采取行动。
维持强有力的出口管制
行动计划指出,“拒绝我们的外国对手获得[先进AI计算能力]……事关地缘战略竞争和国家安全。”我们对此表示强烈赞同。这就是为什么我们对政府最近在向中国出口Nvidia H20芯片问题上的立场转变感到担忧的原因。
AI开发一直由规模定律定义:系统的智能和能力由训练期间的计算、能源和数据输入的规模定义。虽然这些规模定律仍然有效,但最新和最有能力的推理模型已经证明,AI能力与系统在给定任务上可用的计算量(或“推理”)成正比。推理期间可用的计算量受到芯片内存带宽的限制。虽然H20的原始计算能力超过了华为制造的芯片,但正如商务部长卢特尼克和副部长凯斯勒最近所作证的那样,华为在产量方面继续面临困难,并且没有国内生产的中国芯片能与H20的内存带宽相媲美。
因此,H20提供了独特而关键的计算能力,否则中国公司将无法获得,并将弥补中国在AI芯片方面的主要短缺。允许将H20出口到中国将浪费一个在新的竞争阶段开始之际扩展美国AI主导地位的机会。此外,美国AI芯片的出口不会转移中国共产党寻求在AI堆栈中实现自力更生的目标。
为此,我们强烈鼓励政府维持对H20芯片的管制。这些管制与行动计划建议的出口管制相符,并且对于确保和发展美国在AI领域的领先地位至关重要。
展望未来
我们的许多建议与AI行动计划之间的align,表明我们对AI的变革潜力以及维持美国领导地位所需的紧迫行动有着共同的理解。
我们期待与政府合作实施这些举措,同时确保适当关注灾难性风险并维持强有力的出口管制。通过共同努力,我们可以确保强大的AI系统在美国由美国公司安全开发,反映美国的价值观和利益。
有关我们的政策建议的更多详细信息,请参阅我们提交给OSTP的完整意见,以及我们正在进行的负责任的AI开发工作和我们最近关于增加国内能源能力的报告。
总结
Anthropic公司对美国人工智能行动计划表示赞赏,认为该计划在加速AI基础设施建设、联邦采纳以及加强安全测试和协调方面具有积极意义。该计划与Anthropic公司向科学和技术政策办公室(OSTP)提交的反馈意见高度一致。Anthropic强调,为了确保美国在人工智能领域的领导地位,仍然需要采取严格的出口管制和提高AI开发透明度。同时,也表达了对行动计划中出口管制和AI开发透明度不足的担忧,并呼吁政府维持对H20芯片的管制,并建立AI开发透明度标准,确保AI技术安全、负责任地发展。
SEO关键词
AI行动计划, 人工智能战略, 美国AI领导地位, AI基础设施建设, 联邦AI采纳, AI安全测试, AI安全协调, 出口管制, AI开发透明度, Nvidia H20芯片, AI芯片出口, 中国AI发展, 数据中心建设, 能源许可审批, AI监管, AI创新, 国家AI研究资源, AI人才培养, AI伦理, AI风险管理, AI标准化