美国AI行动计划深度解析:战略布局与全球竞争新格局

0

引言:美国AI战略新动向

2025年7月23日,白宫发布了"赢得竞赛:美国AI行动计划",这是一项旨在维持美国在AI领域发展优势的综合战略。该计划聚焦于加速AI基础设施建设和联邦政府AI应用推广,同时强化安全测试与安全协调机制。这一行动计划的出台标志着美国政府在AI领域的战略布局进入新阶段,反映了政府对保持技术领先地位的迫切需求。

AI基础设施加速:美国AI发展的物质基础

能源需求与AI基础设施的紧迫性

行动计划将AI基础设施和推广应用作为优先事项,这与Anthropic公司今年3月向科学技术政策办公室(OSTP)提交的政策建议高度一致。特别值得关注的是,政府承诺简化数据中心和能源许可流程,以满足AI发展的能源需求。

AI系统的运行需要大量计算资源,而计算资源又依赖于充足的能源供应。正如Anthropic在OSTP提交文件及宾夕法尼亚能源与创新峰会上所强调的,如果没有足够的国内能源容量,美国AI开发者可能被迫将业务转移到海外,这可能导致敏感技术面临外国对手的获取风险。Anthropic最近发布的"在美国构建AI"报告详细阐述了政府可以采取哪些措施来加速国家AI基础设施的建设,公司期待与政府合作扩大国内能源容量。

联邦政府AI应用推广

行动计划中关于增加联邦政府AI应用的提议,与Anthropic的政策优先事项和对白宫的建议高度一致,包括:

  1. 要求行政管理和预算局(OMB)解决联邦AI应用面临资源限制、采购限制和项目障碍等问题
  2. 启动信息请求(RFI),识别阻碍AI创新的联邦法规,由OMB协调改革工作
  3. 更新联邦采购标准,消除阻止机构部署AI系统的障碍
  4. 通过公私合作促进AI在国防和国家安全应用中的推广

这些措施将显著提升政府部门的AI应用能力,为AI技术在公共服务领域的普及创造条件。

AI民主化:技术红利的广泛分享

国家AI研究资源(NAIRR)的持续推进

行动计划继续推进国家AI研究资源(NAIRR)试点项目,确保全国各地的学生和研究人员能够参与并贡献于AI前沿的发展。Anthropic长期支持NAIRR项目,并对与该试点项目的合作关系感到自豪。

NAIRR的持续推进将降低AI研究的门槛,使更多研究机构和个人能够参与到AI技术研发中,避免技术垄断和资源集中,促进AI领域的多元创新。

劳动力转型与AI技能培训

行动计划强调对被替代工人的快速再培训项目和AI学徒前项目,这反映了政府认识到以往技术转型过程中的不足,并致力于将AI的益处带给所有美国人。

这一举措具有重要的社会意义。AI技术的发展不可避免地会对就业市场产生影响,政府提前布局相关培训项目,有助于缓解技术变革带来的社会冲击,实现技术进步与就业稳定的平衡。

经济影响评估与政策制定

Anthropic的经济指数和经济未来项目旨在帮助研究人员和政策制定者获取所需的数据和工具,确保AI的经济效益得到广泛分享,风险得到适当管理。这些工作对于制定合理的AI政策至关重要,能够帮助政策制定者在推动技术创新的同时,兼顾社会公平和经济稳定。

安全AI发展:技术进步与风险控制的平衡

强大AI系统的风险与应对

未来几年,强大的AI系统将被开发出来。行动计划强调防范强大AI模型的滥用,并为未来AI相关风险做好准备,这一方向是恰当且重要的。特别值得称赞的是,政府优先支持对AI可解释性、AI控制系统和对抗鲁棒性的研究。这些是重要的研究方向,必须得到支持,以帮助我们处理强大的AI系统。

AI技术的快速发展带来了前所未有的机遇,同时也伴随着潜在风险。政府对这些风险的重视,体现了负责任的技术发展理念,有助于确保AI技术能够在安全可控的轨道上前进。

国家标准与技术研究院(NIST)的角色

行动计划肯定了国家标准与技术研究院AI标准和创新中心(CAISI)在评估前沿模型国家安全问题方面的重要工作,Anthropic期待继续与该中心保持密切合作。政府应继续投资于CAISI,以强化其在AI安全评估方面的能力。

值得注意的是,先进AI系统在生物武器开发相关能力方面显示出令人担忧的改进。CAISI在开发测试和评估能力以应对这些风险方面发挥了主导作用。建议将这些工作重点放在AI系统可能带来的最独特和最紧迫的国家安全风险上。

国家标准:AI透明度与责任框架

透明度要求的重要性

除了测试,我们认为基本的AI开发透明度要求,如安全测试和能力评估的公开报告,对负责任的AI开发至关重要。领先的AI模型开发商应遵守基本且可公开验证的标准,评估和管理其系统带来的灾难性风险。

Anthropic为前沿模型透明度提出的框架重点关注这些风险。我们希望报告能在这方面做更多工作。

行业自律与政府监管的平衡

包括Anthropic、OpenAI和Google DeepMind在内的领先实验室已经实施了自愿安全框架,这表明负责任的发展和创新能力可以共存。事实上,随着Claude Opus 4的推出,我们主动激活了ASL-3保护措施,防止其被用于化学、生物、放射性和核(CBRN)武器开发。这一预防性措施表明,强大的安全保护非但不会减慢创新速度,反而有助于我们构建更好、更可靠的系统。

避免监管碎片化

我们与政府一样,过于具体的监管方法可能造成不一致和繁重的法律拼凑。理想情况下,这些透明度要求应由政府通过单一的国家标准来制定。然而,与我们关于联邦政府未能采取行动时各州应有权采取措施保护公民免受强大AI系统潜在伤害的信念一致,我们继续反对旨在阻止各州制定保护措施的建议。

出口管制:技术领先与国家安全

出口管制的战略意义

行动计划指出,"拒绝我们的外国对手接触先进AI计算能力...既是地缘战略竞争问题,也是国家安全问题"。我们对此表示强烈赞同。

AI发展一直由扩展定律定义:系统的智能和能力由其训练期间的计算、能源和数据输入规模决定。虽然这些扩展定律仍然适用,但最新和最强大的推理模型已经表明,AI能力随着系统在给定任务上可用计算量(即"推理")的增加而扩展。推理期间可用的计算量受芯片内存带宽的限制。

H20芯片出口政策的争议

我们对政府最近允许向中国出口英伟达H20芯片的决定感到担忧。虽然H20的原始计算能力低于华为制造的芯片,正如商务部长卢特尼克和副部长凯斯勒最近作证的那样,华为仍在努力提高产量,而且没有中国国产芯片能够匹配H20的内存带宽。

因此,H20为中国公司提供了独特且关键的计算能力,否则这些公司将无法获得,并将弥补中国在AI芯片方面的主要短缺。允许向中国出口H20芯片将浪费一个在竞争新阶段开始时延长美国AI主导地位的机会。此外,美国AI芯片的出口不会阻止中国共产党追求在AI堆栈上的自力更生。

维持技术领先的战略考量

基于以上分析,我们强烈建议政府维持对H20芯片的管制。这些管制与行动计划建议的出口管制一致,对于确保和扩大美国的AI领先地位至关重要。

前景展望:美国AI战略的全球影响

我们许多建议与AI行动计划的一致性表明,我们对AI的变革潜力以及维持美国领导地位所需的紧急行动有着共同的理解。

我们期待与政府合作实施这些举措,同时确保对灾难性风险给予适当关注,并维持强有力的出口管制。通过共同努力,我们可以确保强大的AI系统在美国安全开发,由美国公司开发,反映美国价值观和利益。

美国AI行动计划的实施将对全球AI竞争格局产生深远影响。在技术加速发展的背景下,各国纷纷出台相应的AI战略,美国这一行动计划的出台将进一步加剧全球AI领域的竞争与合作。如何在保持技术领先的同时,促进AI技术的全球治理和负责任发展,将成为国际社会面临的重要课题。

AI基础设施发展

结论:平衡发展与安全的AI战略

美国AI行动计划体现了政府在推动技术创新与确保安全之间的平衡思考。通过加速基础设施建设、推广技术应用、强化安全标准、建立透明度框架以及实施合理出口管制,美国试图在保持技术领先的同时,管理AI发展带来的各种风险。

这一战略的成功实施将取决于多方利益相关者的参与和合作,包括政府部门、科技企业、学术界和公民社会。只有通过共同努力,才能确保AI技术的发展真正造福人类社会,同时最大限度地降低潜在风险。美国AI行动计划的出台为全球AI治理提供了重要参考,也为各国制定本国AI战略提供了有益借鉴。