美国白宫于2025年7月23日发布了《赢得竞赛:美国AI行动计划》,这是一项旨在维持美国在AI领域领先地位的综合战略。该计划聚焦于加速AI基础设施建设与联邦政府采用,同时加强安全测试与安全协调,体现了美国在AI领域的战略远见与政策决心。本文将从多个维度深入分析这一行动计划的内涵与影响,探讨其对美国科技竞争力、全球AI格局以及未来技术发展路径的深远影响。
加速AI基础设施与联邦采用
美国AI行动计划将AI基础设施和采用置于优先位置,这与Anthropic公司今年3月向白宫科技政策办公室(OSTP)提交的建议高度一致。特别值得关注的是,计划中提出简化数据中心和能源许可程序以应对AI能源需求的举措,这一政策方向直指当前AI发展的核心瓶颈。
能源基础设施:AI发展的关键支撑
正如Anthropic在OSTP提交文件及宾夕法尼亚能源与创新峰会上所指出的,没有足够的国内能源容量,美国AI开发者可能被迫将业务转移到海外,这可能导致敏感技术暴露于外国对手。公司近期发布的《在美国建设AI》报告详细列出了政府可以采取的措施,以加速国家AI基础设施的建设。
AI系统的训练与运行需要巨大的计算资源和能源支持。以大型语言模型为例,训练一个先进模型可能需要数千个GPU运行数周,消耗数百万千瓦时的电力。这种能源需求不仅对电网构成挑战,也对数据中心的散热、供电等基础设施提出了极高要求。美国行动计划中的能源政策调整,正是为了解决这一关键瓶颈。
联邦政府AI采用:政策与执行的协同
行动计划提出的增加联邦政府AI采用的建议,与Anthropic的政策优先事项高度一致。这包括:
- 管理与预算办公室(OMB)解决联邦AI采用面临的资源限制、采购限制和项目障碍
- 启动信息请求(RFI),识别阻碍AI创新的联邦法规,由OMB协调改革努力
- 更新联邦采购标准,消除阻止机构部署AI系统的障碍
- 通过公私合作促进AI在国防和国防安全应用中的采用
这些举措若能有效实施,将显著加速AI技术在政府服务、国防安全等关键领域的应用,同时为AI技术提供宝贵的应用场景和数据反馈,形成技术与需求之间的良性循环。
民主化AI利益:普惠发展与公平分配
行动计划强调确保广泛参与并受益于AI的持续发展和部署,这一理念体现了对AI技术普惠性的重视。国家AI研究资源(NAIRR)试点项目的延续,确保全国各地的学生和研究人员能够参与并贡献于AI前沿的发展。
教育与研究资源的普及
NAIRR项目的持续实施将为学术研究提供必要的计算资源,降低前沿AI研究的门槛。过去,大型AI模型的训练成本高达数百万美元,只有少数科技巨头和顶级研究机构能够承担。NAIRR的建立旨在改变这一现状,使更多研究机构和学生能够接触并参与前沿AI研究。
Anthropic长期以来支持NAIRR项目,并与试点项目建立了合作伙伴关系。这种公私合作模式有助于平衡创新与开放,确保AI技术的发展不局限于少数精英机构。
劳动力转型与技能提升
行动计划强调对被替代工人的快速再培训项目以及AI学徒前项目,这反映了政策制定者对技术变革社会影响的深刻认识。与以往技术转型不同,AI可能带来的就业结构调整规模更大、影响更广,因此提前规划和应对至关重要。
Anthropic的经济指数和经济未来计划等项目,旨在帮助研究人员和政策制定者获取数据和工具,确保AI的经济利益能够广泛共享,风险得到适当管理。这些努力对于平衡技术进步与社会公平具有重要意义。
促进安全AI开发:风险管控与技术创新
未来几年,更强大的AI系统将被开发出来。行动计划强调防范强大AI模型的滥用并准备应对未来AI相关风险,这一方向是恰当且必要的。特别是,政府优先支持AI可解释性、AI控制系统和对抗鲁棒性研究,这些是应对强大AI系统的重要研究方向。
AI安全研究的紧迫性
随着AI系统能力的不断提升,其潜在风险也在增加。AI可解释性研究旨在理解AI决策过程,增强透明度;AI控制系统研究确保人类能够有效引导和限制AI行为;对抗鲁棒性研究则关注AI系统在面对恶意输入时的稳定性。这些研究方向共同构成了AI安全研究的核心领域。
美国国家标准与技术研究院的AI标准和创新中心(CAISI)在评估前沿模型的国家安全问题方面发挥着重要作用。Anthropic期待与CAISI保持密切合作,并鼓励政府继续对该中心投资。
生物安全与AI风险
值得注意的是,先进AI系统在生物武器开发相关能力方面显示出令人担忧的进展。CAISI在开发测试和评估能力以应对这些风险方面发挥了领先作用。这些努力应聚焦于AI系统可能带来的最独特和最紧迫的国家安全风险。
国家透明度标准:平衡创新与责任
除了测试,我们认为基本的AI开发透明度要求,如安全测试和能力评估的公开报告,对负责任的AI开发至关重要。领先的AI模型开发者应遵守基本且可公开验证的标准,评估和管理其系统带来的灾难性风险。
行业自律与政府监管的平衡
Anthropic、OpenAI和Google DeepMind等领先实验室已经实施了自愿安全框架,这表明负责任的发展和创新可以共存。事实上,随着Claude Opus 4的发布,我们主动激活了ASL-3保护措施,防止其被用于化学、生物、放射性和核(CBRN)武器开发。这一预防性措施表明,强大的安全保护不仅不会减缓创新,反而有助于我们构建更好、更可靠的系统。
联邦与州级监管的协调
我们认同政府对过度描述性监管方法可能造成不一致和繁琐的法律拼图的担忧。理想的透明度要求应由政府通过单一国家标准制定。然而,与我们对州AI法律十年禁令的立场一致,我们继续反对旨在阻止各州制定保护公民免受强大AI系统潜在危害措施的提案,特别是当联邦政府未能采取行动时。
这种联邦与州级监管的平衡,需要在确保全国统一标准的同时,保留地方应对特定风险的能力,是一个需要持续探索的复杂议题。
维持强出口控制:技术竞争与国家安全
行动计划指出,拒绝外国对手接触先进AI计算能力是地缘战略竞争和国家安全的双重问题。我们对此表示强烈赞同。然而,我们对政府最近允许向中国出口Nvidia H20芯片的决定表示担忧。
AI发展的规模法则
AI发展一直遵循规模法则:系统的智能和能力由训练期间的计算、能源和数据输入规模决定。虽然这些规模法则仍然适用,但最新的最强大的推理模型已经表明,AI能力随着系统在给定任务上可用计算量的增加而扩展,即"推理"过程。
推理过程中可用的计算量受芯片内存带宽的限制。虽然H20的原始计算能力被华为制造的芯片超越,但华为在生产量方面仍面临挑战,且没有中国国产芯片能匹配H20的内存带宽。
出口控制的技术考量
因此,H20为中国公司提供了独特且关键的计算能力,这将弥补中国AI芯片的严重短缺。允许向中国出口H20芯片将浪费在美国AI主导地位刚刚进入新竞争阶段时巩固这一优势的机会。此外,美国AI芯片的出口不会阻止中国共产党追求在AI堆栈上的自力更生。
出口控制政策需要在技术竞争、国家安全与国际合作之间寻找平衡点。过于严格的控制可能阻碍全球AI技术的共同进步,而过于宽松的政策则可能危及国家安全。美国需要在保护自身技术优势的同时,保持与盟友的合作,共同应对AI带来的全球性挑战。
未来展望:机遇与挑战并存
我们与行动计划中许多建议的一致性,表明我们对AI变革性潜力的共同理解,以及维持美国领导地位的迫切行动需求。
技术创新与监管框架的协同演进
AI技术的快速发展要求监管框架能够灵活适应,既不能过于僵化阻碍创新,也不能过于宽松放任风险。美国行动计划试图在促进创新与确保安全之间找到平衡点,这一方向值得肯定。
未来,随着AI技术的不断演进,监管框架也需要持续更新。这需要政府、企业、学术界和公民社会的广泛参与,形成多方治理的生态系统。特别是在AI安全标准、透明度要求和国际协调等方面,需要建立持续对话和调整机制。
全球AI治理的参与
作为AI技术领先国家之一,美国在全球AI治理中扮演着重要角色。通过参与国际标准制定、多边协议和全球AI治理框架,美国可以引导AI技术向有利于全人类的方向发展,同时维护自身国家利益和价值观。
行动计划中提到的国际合作与协调,为美国在全球AI治理中发挥领导作用提供了基础。未来,美国需要在单边行动与国际合作之间找到平衡,既要保护自身技术优势,又要推动建立公平、包容的全球AI治理体系。
结论
美国AI行动计划代表了政策制定者对技术变革的前瞻性思考,体现了在促进创新与确保安全之间寻求平衡的努力。从加速基础设施建设到民主化AI利益,从促进安全开发到建立透明度标准,该计划为美国在AI时代的领导地位奠定了基础。
然而,计划的实施仍面临诸多挑战,包括技术出口控制与国家安全的平衡、联邦与州级监管的协调、以及全球AI治理的参与等。这些挑战需要政府、企业、学术界和公民社会的共同努力,通过持续对话和调整,找到最适合美国国情和全球利益的解决方案。
随着AI技术的不断演进,美国需要保持战略定力,同时保持政策灵活性,在促进创新与确保安全之间不断优化平衡点。只有这样,美国才能真正赢得AI竞赛,同时确保AI技术的发展符合人类共同利益和价值观。


