引言:美国AI战略的新篇章
2025年7月23日,白宫发布了《赢得竞赛:美国AI行动计划》——这是一项旨在维持美国在AI发展领域优势的全面战略。该计划重点关注加速AI基础设施建设和联邦政府采用,同时加强安全测试和安全协调。我们鼓励该计划对AI基础设施和联邦采用的重视,这与Anthropic公司今年3月向科学技术政策办公室(OSTP)提交的回应相呼应。虽然该计划为美国的AI advancement奠定了基础,但我们认为严格的出口控制和AI开发透明度标准仍是确保美国AI领导力的关键下一步。
加速AI基础设施与联邦采用
能源基础设施与AI发展
行动计划优先考虑AI基础设施和采用,这与Anthropic今年3月向OSTP提交的立场一致。我们赞赏政府致力于简化数据中心和能源许可,以解决AI的能源需求。正如我们在OSTP提交内容及在宾夕法尼亚能源与创新峰会上所强调的,如果没有足够的国内能源容量,美国的AI开发者可能被迫将业务转移到海外,这可能使敏感技术暴露给外国对手。我们最近发布的《在美国构建AI》报告详细阐述了政府可以采取的措施,以加速我国AI基础设施的建设,我们期待与政府合作,扩大国内能源容量。
联邦政府AI采用的关键措施
该计划增加联邦政府采用AI的建议包括与Anthropic政策优先事项和向白宫提出的建议密切 aligned的提案:
- 指令行政管理和预算局(OMB)解决联邦AI采用中的资源限制、采购限制和项目性障碍。
- 发放信息请求(RFI),以识别阻碍AI创新的联邦法规,由OMB协调改革努力。
- 更新联邦采购标准,消除阻止机构部署AI系统的障碍。
- 通过公私合作促进国防和国家安全应用中的AI采用。
AI民主化:确保广泛参与与共享
国家AI研究资源(NAIRR)的延续
我们与行动计划对确保广泛参与并从AI的持续发展和部署中获益的重点保持一致。行动计划继续国家AI研究资源(NAIRR)试点,确保全国各地的学生和研究人员能够参与并贡献于AI前沿的进步。我们一直支持NAIRR,并对与该试点项目的合作伙伴关系感到自豪。此外,行动计划对被取代工人的快速再培训计划和学徒前AI项目的重视,认识到了先前技术过渡的失误,并致力于将AI的益处带给所有美国人。
AI经济影响的研究与应对
补充这些提案的是我们理解AI如何正在变革以及将如何变革我们经济的努力。《经济指数》和《经济未来计划》旨在为研究人员和政策制定者提供数据和工具,确保AI的经济效益得到广泛共享,并适当管理风险。
促进AI安全开发
强大AI系统的风险管理
未来几年将开发出强大的AI系统。该计划强调防范强大AI模型的滥用并为未来AI相关风险做准备是恰当且出色的。特别是,我们赞赏政府优先支持对AI可解释性、AI控制系统和对抗鲁棒性的研究。这些是重要的研究方向,必须得到支持,以帮助我们处理强大的AI系统。
国家标准与技术研究院(NIST)的关键作用
我们高兴地看到行动计划确认了国家标准与技术研究院AI标准和创新中心(CAISI)在评估前沿模型以应对国家安全问题方面的重要工作,我们期待继续与他们保持密切合作。我们鼓励政府继续对CAISI进行投资。正如我们在提交中所指出的,先进的AI系统在展示与生物武器开发相关能力方面的改进令人担忧。CAISI在开发测试和评估能力以应对这些风险方面发挥了主导作用。我们鼓励将这些工作集中在AI系统可能构成的最独特和最紧迫的国家安全风险上。
建立国家透明度标准
透明度与安全测试的必要性
除了测试,我们认为基本的AI开发透明度要求,如安全测试和能力评估的公开报告,对负责任的AI开发至关重要。领先的AI模型开发者应遵守基本的、可公开验证的标准,以评估和管理其系统造成的灾难性风险。我们为前沿模型透明度提出的框架侧重于这些风险。我们希望该报告能在这个主题上做更多工作。
行业自律与政府监管的平衡
包括Anthropic、OpenAI和Google DeepMind在内的领先实验室已经实施了自愿安全框架,这表明负责任的开发和创新可以共存。事实上,随着Claude Opus 4的推出,我们主动激活了ASL-3保护措施,以防止将其用于化学、生物、放射性和核(CBRN)武器开发。这一预防性措施表明,强大的安全保护非但没有减缓创新,反而帮助我们构建更好、更可靠的系统。
我们与政府对过于描述性的监管方法可能造成不一致且繁重的法律拼凑的担忧一致。理想情况下,这些透明度要求应通过单一的国家标准来自政府。然而,与我们关于联邦政府若不采取行动则各州仍应有权保护其公民免受强大AI系统潜在伤害的立场一致,我们继续反对旨在阻止各州制定保护措施的提案。
维持强大出口控制
AI计算能力与地缘战略竞争
行动计划指出,拒绝我们的外国对手接触先进AI计算能力既是地缘战略竞争也是国家安全问题。我们强烈同意。这就是为什么我们政府对向中国出口Nvidia H20芯片的近期逆转感到担忧。
AI的发展一直由扩展定律定义:系统的智能和能力由其在训练期间的计算、能源和数据输入规模决定。虽然这些扩展定律仍然适用,但最新且最强大的推理模型已经表明,AI能力随着系统在给定任务上可用计算量或"推理"的增加而扩展。推理期间可用的计算量受芯片内存带宽的限制。虽然H20的原始计算能力被华为制造的芯片超越,正如商务部长卢特尼克和副部长凯斯勒最近作证的那样,华为在生产量方面仍然挣扎,而且没有国产的中国芯片能匹配H20的内存带宽。
H20芯片出口控制的战略意义
因此,H20为中国公司提供了独特且关键的计算能力,否则他们将无法获得这些能力,并将弥补中国在AI芯片方面的主要短缺。允许向中国出口H20芯片将浪费一个在美国AI主导地位面临新阶段竞争时加以扩大的机会。此外,美国AI芯片的出口不会阻止中国共产党追求在AI堆栈中的自给自足。
为此,我们强烈鼓励政府维持对H20芯片的控制。这些控制与行动计划建议的出口控制一致,对于确保和扩大美国的AI领先地位至关重要。
结论:美国AI战略的未来展望
我们许多建议与AI行动计划之间的一致性表明,我们对AI的变革潜力和维持美国领导力所需的紧急行动有着共同的理解。
我们期待与政府合作实施这些举措,同时确保适当关注灾难性风险并维持强大的出口控制。我们可以共同努力,确保强大的AI系统在美国安全开发,由美国公司开发,反映美国价值观和利益。
行动计划的深远影响
美国AI行动计划的发布标志着美国在人工智能领域战略布局的重要里程碑。该计划不仅关注技术发展本身,更从国家安全、经济竞争和社会福祉等多个维度进行全面考量。通过加速基础设施建设、推动联邦政府采用、强化安全标准、建立透明度机制以及维持出口控制,美国正在构建一个全方位的AI生态系统,旨在保持其在全球AI竞争中的领先地位。
对全球AI格局的影响
这一行动计划将对全球AI格局产生深远影响。一方面,它可能加速美国与竞争对手之间的技术分化,形成"AI铁幕";另一方面,它也可能促使其他国家加快自主研发步伐,推动全球AI技术向多极化方向发展。无论如何,美国这一战略举措都将重塑全球AI治理结构和国际合作模式。
对AI伦理与治理的启示
该计划对AI安全、透明度和伦理的关注,反映了美国对AI技术潜在风险的清醒认识。它强调的不仅是技术领先,还有负责任的AI开发和部署,这对全球AI伦理和治理框架的构建具有重要启示意义。各国在制定AI政策时,都需要在促进创新与防范风险之间找到平衡点,这已成为全球AI治理的普遍挑战。
结语
美国AI行动计划是一项全面而前瞻性的战略部署,它不仅着眼于当前的技术竞争,更着眼于长远的国家安全和经济繁荣。通过在基础设施建设、安全标准、透明度要求和出口控制等方面的系统布局,美国正试图构建一个既能促进创新又能防范风险的AI发展生态系统。这一战略的实施将不仅影响美国自身的科技发展和经济竞争力,也将对全球AI格局产生深远影响,值得我们持续关注和深入研究。









