在人工智能技术日新月异的今天,美国白宫于2025年7月23日发布了《赢得竞赛:美国AI行动计划》,这是一项旨在维持美国在AI领域领先地位的综合战略。该计划聚焦于加速AI基础设施建设、推动联邦政府AI采用、加强AI安全测试与协调、促进AI民主化以及维护强有力的出口控制等多个方面。本文将深入分析这一行动计划的战略意义、实施路径及其面临的挑战,探讨美国如何在AI竞争中保持优势的同时,确保技术的安全与负责任发展。
AI基础设施建设的加速推进
美国AI行动计划将基础设施建设和采用置于优先位置,这与Anthropic公司在2025年3月向白宫科技政策办公室(OSTP)提交的建议高度一致。行动计划中,政府承诺简化数据中心和能源许可程序,以应对AI发展对能源的巨大需求。
这一举措具有深远的战略意义。正如Anthropic公司在《在美国建设AI》报告中指出的,如果没有足够的国内能源容量,美国AI开发者可能被迫将业务转移到海外,这可能导致敏感技术暴露给外国对手。能源问题已成为制约美国AI发展的关键瓶颈,特别是在大型模型训练过程中,数据中心消耗的电力资源极为可观。

行动计划还包括增加联邦政府AI采用的一系列建议,这些与Anthropic的政策优先事项高度一致:
- 要求行政管理和预算局(OMB)解决联邦AI采用面临的资源限制、采购限制和项目障碍
- 启动信息请求(RFI),确定阻碍AI创新的联邦法规,由OMB协调改革努力
- 更新联邦采购标准,消除阻止机构部署AI系统的障碍
- 通过公私合作促进AI在国防和国防安全应用中的采用
这些措施若能有效实施,将显著提升美国政府在AI领域的领导力和应用能力,同时也为私营部门树立了榜样。
AI民主化的战略意义
行动计划强调确保广泛参与并受益于AI的持续发展和部署,这一理念体现了美国在AI治理上的平衡思维。行动计划继续推进国家AI研究资源(NAIRR)试点项目,确保全国各地的学生和研究人员能够参与并贡献于AI前沿的发展。
NAIRR的重要性不容忽视。它为学术研究提供了宝贵的计算资源,打破了AI资源被少数科技巨头垄断的局面,促进了创新多样性和包容性。Anthropic公司长期支持NAIRR项目,并与试点项目建立了合作伙伴关系,这表明私营部门也认识到开放研究环境对AI长期健康发展的重要性。
行动计划还关注技术转型带来的社会影响,包括为被替代工人提供快速再培训项目和AI学徒前项目。这种对劳动力市场的关注体现了美国政府对AI技术社会影响的重视,试图避免历史上技术革命带来的社会分化问题。
Anthropic公司的经济指数和经济未来项目旨在为研究人员和政策制定者提供数据和工具,确保AI的经济利益得到广泛分享,风险得到适当管理。这些努力与政府计划形成了互补,共同构建了一个更全面的AI经济影响评估框架。
AI安全开发的强化措施
随着AI系统能力的不断提升,安全问题已成为全球关注的焦点。行动计划强调防范强大AI模型的滥用,并为未来AI相关风险做好准备,这一方向是恰当且必要的。
特别值得称赞的是,政府优先支持对AI可解释性、AI控制系统和对抗鲁棒性的研究。这些研究方向对于处理未来可能出现的强大AI系统至关重要。Anthropic公司一直致力于这些领域的研究,认为它们是确保AI系统安全可控的关键。
行动计划肯定了美国国家标准与技术研究院AI标准和创新中心(CAISI)在评估前沿模型国家安全问题方面的重要工作,这表明政府认识到了专业机构在AI安全评估中的关键作用。CAISI在开发测试和评估能力以应对AI系统带来的风险方面发挥了领导作用,特别是在生物武器开发相关能力方面表现出令人担忧的改进。

然而,仅靠测试是不够的。基本的AI开发透明度要求,如安全测试和能力评估的公开报告,对负责任的AI发展至关重要。领先的AI模型开发者应遵守基本且可公开验证的标准,评估和管理其系统带来的灾难性风险。
Anthropic、OpenAI和Google DeepMind等领先实验室已经实施了自愿安全框架,这表明负责任的发展和创新可以共存。事实上,随着Claude Opus 4的推出,Anthropic主动激活了ASL-3保护措施,防止其被用于化学、生物、放射性和核(CBRN)武器开发。这一预防性措施表明,强大的安全保护不仅不会减缓创新,反而有助于我们构建更好、更可靠的系统。
国家标准的迫切需求
在美国AI治理体系中,一个统一的国家标准显得尤为重要。目前,各州可能制定不同的AI法规,这可能导致不一致且繁重的法律拼凑。政府与私营部门在这一问题上的共识是:需要一个统一的国家标准来规范AI开发。
然而,如果联邦政府未能采取行动,各州可能会自行采取措施保护其公民免受强大AI系统可能造成的伤害。Anthropic公司反对旨在阻止各州制定保护措施的提案,认为十年暂停州AI法律的提议过于生硬。这种平衡的立场反映了美国联邦制下AI治理的复杂性。
透明度要求应来自政府,通过单一的国家标准制定。理想情况下,这些要求应涵盖安全测试、能力评估、训练数据来源、系统限制等多个方面。透明度不是创新的敌人,而是确保AI系统安全、可靠且符合社会期望的保障。
出口控制的战略考量
AI发展由扩展定律定义:系统的智能和能力由训练期间的计算、能源和数据输入规模决定。虽然这些扩展定律仍然适用,但最新和最强大的推理模型表明,AI能力随着系统在给定任务上可用计算量的增加而扩展,即"推理"阶段。
推理阶段的可用计算量受芯片内存带宽限制。虽然英伟达H20芯片的原始计算能力被华为制造的芯片超越,但华为在生产量方面仍面临挑战,且没有中国国产芯片能匹配H20的内存带宽。
因此,H20为中国公司提供了独特且关键的计算能力,将弥补中国AI芯片的巨大短缺。允许向中国出口H20芯片将浪费美国AI主导地位扩展的机会,尤其是在新的竞争阶段开始之际。此外,美国AI芯片的出口不会转移中国共产党对AI堆栈自力更生的追求。

从地缘战略竞争和国家安全的角度看,保持对先进AI计算能力的出口控制至关重要。这些控制措施与行动计划建议的出口控制一致,对确保和扩大美国AI领先地位至关重要。
前瞻与展望
美国AI行动计划与Anthropic公司许多建议的一致性,表明了对AI变革潜力的共同理解,以及对维持美国领导地位所需紧急行动的共识。然而,计划在出口控制和透明度标准方面仍有改进空间。
未来,美国需要在促进创新与防范风险之间找到平衡点。这需要政府、企业、学术界和公民社会的共同努力。一方面,美国需要保持其创新活力,确保AI技术的持续进步;另一方面,需要建立健全的治理框架,确保AI的发展符合社会价值观和长远利益。
在全球AI竞争中,美国不仅需要关注技术领先,还需要关注治理领先。通过制定合理的政策框架,美国可以引导全球AI发展方向,确保AI技术造福全人类,而非成为新的冲突源。
美国AI行动计划的发布标志着该国在AI治理上的重要一步。虽然计划仍有完善空间,但它为美国在AI时代保持领导地位提供了清晰的路线图。通过有效实施这一计划,并不断根据技术发展和社会需求进行调整,美国有望在AI竞赛中赢得胜利,同时确保这一强大技术得到负责任的发展和应用。











