美国白宫于2025年7月23日发布了《赢得竞赛:美国AI行动计划》,这是一份旨在维持美国在人工智能领域领先地位的全面战略。该计划聚焦于加速AI基础设施建设和联邦政府采用,同时加强安全测试与安全协调,为美国在AI时代的全球竞争提供了清晰的政策框架。本文将从多个维度深入分析这一计划的核心内容及其对全球AI格局的深远影响。
AI基础设施建设的加速推进
能源需求与数据中心许可改革
美国AI行动计划将AI基础设施和采用作为优先事项,这与Anthropic公司今年3月向白宫科技政策办公室(OSTP)提交的建议高度一致。计划中特别值得关注的是政府承诺简化数据中心和能源许可程序,以应对AI发展的巨大能源需求。
这一举措的紧迫性不容忽视。正如Anthropic在宾夕法尼亚能源与创新峰会上所指出的,如果没有足够的国内能源容量,美国AI开发者可能被迫将业务转移到海外,从而可能使敏感技术面临外国对手获取的风险。Anthropic近期发布的《在美国建设AI》报告详细列出了政府可以采取的措施,以加速国家AI基础设施的建设,包括能源政策改革、区域电网升级以及可再生能源整合等。
联邦政府AI采用的全面改革
计划中关于增加联邦政府AI采用的建议,与Anthropic的政策优先事项和向白宫提出的建议高度一致。这些措施包括:
- 管理与预算办公室(OMB)负责解决联邦AI采用面临的资源限制、采购限制和项目障碍
- 启动信息请求(RFI),识别阻碍AI创新的联邦法规,由OMB协调改革努力
- 更新联邦采购标准,消除阻止机构部署AI系统的障碍
- 通过公私合作促进AI在国防和国家安全应用中的采用
这些改革举措将显著提升联邦政府机构在AI应用方面的能力和效率,特别是在国家安全、公共服务和科学研究等关键领域。
AI民主化与普惠共享
国家AI研究资源(NAIRR)的延续与扩展
行动计划继续推进国家AI研究资源(NAIRR)试点项目,确保全国各地的学生和研究人员能够参与并贡献于AI前沿的发展。Anthropic长期以来一直支持NAIRR项目,并与该试点项目建立了紧密的合作关系。
NAIRR的重要性在于它打破了AI研究和开发中的资源壁垒,使更多机构和个人能够接触先进的AI工具和计算资源。这不仅有助于促进AI技术的多元化发展,还能防止技术垄断和资源集中,确保AI发展更加包容和全面。
劳动力转型与AI教育
计划中强调的快速再培训项目和学徒前AI项目,体现了对技术转型历史教训的反思,以及对将AI利益带给所有美国人的承诺。这一方向与Anthropic的经济影响研究高度一致。
Anthropic的《经济指数》和《经济未来计划》旨在为研究人员和政策制定者提供数据和工具,确保AI的经济利益得到广泛分享,风险得到适当管理。这些研究表明,AI技术将深刻改变就业市场结构,需要前瞻性的教育和培训政策来应对这一变革。
安全AI开发的促进与规范
AI安全研究的优先支持
随着强大AI系统在未来几年内将被开发出来,计划中强调防范强大AI模型滥用和准备应对未来AI相关风险是恰当且重要的。特别是,我们赞赏政府优先支持AI可解释性、AI控制系统和对抗鲁棒性的研究。
这些研究领域对于处理强大AI系统至关重要。AI可解释性研究旨在使AI系统的决策过程更加透明和可理解;AI控制系统研究专注于确保人类能够有效控制和监督AI系统;对抗鲁棒性研究则关注提高AI系统抵御恶意攻击的能力。
国家标准与技术研究院(CAISI)的关键作用
计划肯定了国家标准与技术研究院人工智能标准和创新中心(CAISI)在评估前沿模型国家安全问题方面的重要工作,这表明政府认识到专业机构在AI安全评估中的关键作用。
CAISI在开发测试和评估能力以应对AI系统带来的风险方面发挥了领导作用,特别是在生物武器开发等敏感领域。Anthropic鼓励政府继续投资CAISI,并将这些努力集中在AI系统可能带来的最独特和最紧迫的国家安全风险上。
透明度要求与国家标准的必要性
AI开发透明度的基本要求
除了测试之外,我们相信基本的AI开发透明度要求,如安全测试和能力评估的公开报告,对负责任的AI开发至关重要。领先的AI模型开发商应被要求遵守基本且可公开验证的标准,以评估和管理其系统带来的灾难性风险。
Anthropic提出的前沿模型透明度框架重点关注这些风险,包括系统安全性、能力评估和潜在影响等方面。虽然行动计划在这一方面的内容有限,但透明度要求对于建立公众信任、促进负责任的AI创新以及防范潜在风险具有重要意义。
自愿安全框架与监管平衡
包括Anthropic、OpenAI和Google DeepMind在内的领先实验室已经实施了自愿安全框架,这表明负责任的发展和创新可以共存。事实上,随着Claude Opus 4的推出,我们主动激活了ASL-3保护措施,防止其被用于化学、生物、放射性和核(CBRN)武器开发。
这一预防性措施表明,强大的安全保护不仅不会减缓创新,反而有助于我们构建更好、更可靠的系统。同时,我们也理解政府对过于详细的监管方法可能导致不一致和繁琐的法律拼凑的担忧。
国家标准与州级立法的平衡
理想的透明度要求应由政府通过单一的国家标准来制定。然而,与我们的观点一致,认为对州AI法律实施十年禁令过于笼统,我们继续反对旨在阻止各州制定措施保护其公民免受强大AI系统潜在伤害的提案,前提是联邦政府未能采取行动。
这种平衡对于确保美国AI监管框架的一致性和有效性至关重要,同时保留州级政府在特定领域采取行动的灵活性。
出口控制与全球竞争战略
AI计算出口控制的重要性
行动计划指出,拒绝我们的外国对手接触先进AI计算能力...既是地缘战略竞争问题,也是国家安全问题。我们强烈同意这一观点。因此,我们对政府最近允许Nvidia H20芯片出口中国的决定感到担忧。
AI发展一直由规模定律定义:系统的智能和能力由其训练过程中的计算、能源和数据输入规模决定。虽然这些规模定律仍然适用,但最新和最强大的推理模型已经表明,AI能力随着系统在给定任务上可用计算量的增加而扩展,即"推理"过程。
H20芯片的战略价值
推理过程中可用的计算量受到芯片内存带宽的限制。虽然H20的原始计算能力被华为制造的芯片超越,但华为在生产量方面仍存在困难,而且没有中国国产芯片能匹配H20的内存带宽。
因此,H20为中国公司提供了独特且关键的计算能力,否则将无法获得,并将弥补中国AI芯片的严重短缺。允许H20出口到中国将浪费延长美国AI主导地位的机会,尤其是在新的竞争阶段刚刚开始之际。此外,美国AI芯片的出口不会阻止中国共产党追求AI堆栈的自力更生。
维持技术领先的战略考量
维持对H20芯片的控制与行动计划建议的出口控制一致,对于确保和扩大美国的AI领先地位至关重要。这一控制措施反映了美国在AI技术竞争中的战略考量,即在保持创新活力的同时,防止关键技术落入竞争对手手中。
未来展望与战略平衡
多方利益相关者的协同合作
我们许多建议与AI行动计划之间的一致性,表明对AI变革性潜力的共同理解,以及维持美国领导力的迫切行动需求。未来,政府、企业、学术界和公民社会需要加强合作,共同推动AI技术的发展和应用。
特别是在AI安全研究、标准制定和伦理规范方面,多方合作将有助于建立更加全面和有效的治理框架,确保AI技术的发展符合人类共同利益。
创新与安全的平衡艺术
美国AI行动计划的核心挑战在于如何在促进创新与确保安全之间取得平衡。一方面,过度监管可能扼杀创新动力,减缓技术进步;另一方面,缺乏适当的安全措施可能导致严重风险和信任危机。
行动计划试图通过强调自愿安全标准、加强研发投入和建立专业评估机构等方式,在这一平衡中找到最佳点。未来,随着AI技术的不断发展,这种平衡需要持续调整和优化。
全球AI治理的参与引领
作为AI技术的领先国家,美国有责任积极参与全球AI治理,推动建立公平、包容的国际规则和标准。这不仅有助于维护美国的技术优势,也能促进全球AI技术的健康发展。
行动计划中关于国际合作和标准制定的条款,表明美国认识到在AI时代,单边行动的效果有限,需要通过多边合作解决全球性挑战。未来,美国将在全球AI治理中扮演更加积极的角色,推动建立有利于技术创新和人类福祉的国际秩序。
结论
美国AI行动计划代表了政府在AI时代战略布局的重要一步,通过加速基础设施建设、促进联邦政府采用、加强安全研究、推动透明度要求和维持出口控制,为美国在AI领域的全球竞争提供了全面框架。
然而,计划的成功实施还需要克服诸多挑战,包括能源供应、人才短缺、技术标准统一和国际合作等方面的困难。未来,政府、企业和研究机构需要加强协作,共同推动AI技术的健康发展,确保美国在AI时代保持技术领先地位的同时,也能促进全球AI技术的普惠共享和可持续发展。
在AI技术快速发展的背景下,美国AI行动计划不仅是国内政策的重要指南,也将对全球AI竞争格局产生深远影响。通过持续优化和调整,这一计划有望为美国在AI时代的全球领导地位奠定坚实基础,同时也为其他国家提供了有价值的参考和借鉴。









