2025年7月23日,白宫发布了"赢得竞赛:美国AI行动计划",这是一项旨在维持美国在AI开发领域优势的全面战略。该计划聚焦于加速AI基础设施建设和联邦政府采用,同时加强安全测试和安全协调。我们对该计划中的多项建议表示赞赏,因为它们与Anthropic公司此前向科学技术政策办公室(OSTP)提交的回应高度一致。尽管该计划为美国的AI advancement奠定了基础,但我们认为严格的出口控制和AI开发透明度标准仍是确保美国AI领导力的关键下一步。
加速AI基础设施和采用
行动计划优先考虑AI基础设施和采用,这与Anthropic在3月向OSTP提交的立场一致。
我们赞赏政府致力于简化数据中心和能源许可,以应对AI的能源需求。正如我们在OSTP提交文件及宾夕法尼亚能源与创新峰会上所强调的,如果没有足够的国内能源容量,美国的AI开发者可能被迫将业务转移到海外,从而使敏感技术面临外国对手的风险。我们最近发布的"在美国建设AI"报告详细阐述了政府可以采取的措施,以加速我国AI基础设施的建设,我们期待与政府合作,扩大国内能源容量的措施。
该计划增加联邦政府采用AI的建议,包括与Anthropic政策优先事项和对白宫的建议密切 aligned的提案,这些包括:
- 要求行政管理和预算局(OMB)解决联邦AI采用的资源限制、采购限制和项目障碍。
- 发放信息请求(RFI),以识别阻碍AI创新的联邦法规,由OMB协调改革努力。
- 更新联邦采购标准,消除阻止机构部署AI系统的障碍。
- 通过公私合作促进国防和国家安全应用中的AI采用。
民主化AI的利益
我们与行动计划确保广泛参与并从AI的持续发展和部署中受益的重点保持一致。
行动计划继续国家AI研究资源(NAIRR)试点,确保全国各地的学生和研究人员能够参与并为AI前沿的进步做出贡献。我们一直支持NAIRR,并为我们与该试点项目的合作伙伴关系感到自豪。此外,行动计划对被替代工人的快速再培训项目和AI学徒前项目的重视,认识到了先前技术转型的失误,并致力于将AI的利益带给所有美国人。
补充这些提案的是我们努力了解AI如何正在改变以及将如何改变我们的经济。经济指数和经济未来计划旨在为研究人员和政策制定者提供数据和工具,确保AI的经济利益得到广泛分享,风险得到适当管理。
促进安全的AI开发
未来几年将开发出强大的AI系统。该计划强调防范强大AI模型的滥用并为未来AI相关风险做准备是适当且出色的。特别是,我们赞赏政府优先支持对AI可解释性、AI控制系统和对抗鲁棒性的研究。这些是重要的研究领域,必须得到支持,以帮助我们处理强大的AI系统。
我们很高兴行动计划肯定了美国国家标准与技术研究院AI标准和创新中心(CAISI)在评估前沿模型以应对国家安全问题方面的重要工作,我们期待继续与他们保持密切合作。我们鼓励政府继续投资CAISI。正如我们在提交文件中指出的,先进的AI系统在生物武器开发相关能力方面显示出令人担忧的改进。CAISI在开发测试和评估能力以应对这些风险方面发挥了主导作用。我们鼓励将这些努力集中在AI系统可能带来的最独特和最紧迫的国家安全风险上。
国家标准的需求
除了测试,我们认为基本的AI开发透明度要求,如安全测试和能力评估的公开报告,对负责任的AI开发至关重要。领先的AI模型开发者应遵守基本且可公开验证的标准,以评估和管理其系统带来的灾难性风险。我们针对前沿模型透明度的框架侧重于这些风险。我们希望该报告能在此主题上做得更多。
包括Anthropic、OpenAI和Google DeepMind在内的领先实验室已经实施了自愿安全框架,这表明负责任的发展和创新可以共存。事实上,随着Claude Opus 4的发布,我们主动激活了ASL-3保护措施,防止其被用于化学、生物、放射性和核(CBRN)武器开发。这一预防性步骤表明,强大的安全保护不仅不会减缓创新,反而有助于我们构建更好、更可靠的系统。
我们与政府一样,过于详尽的监管方法会造成不一致且繁重的法律拼凑。理想情况下,这些透明度要求应通过单一的国家标准来自政府。然而,与我们明确持有的信念一致,即对州AI法律实施十年禁令是一种过于 blunt的工具,如果联邦政府不采取行动,我们继续反对旨在阻止各州采取措施保护其公民免受强大AI系统潜在危害的提案。
维持强大的出口控制
行动计划指出,"拒绝我们的外国对手接触先进AI计算能力...既是地缘战略竞争也是国家安全问题。"我们完全同意。这就是为什么我们对政府最近允许向中国出口英伟达H20芯片的决定感到担忧。
AI的发展一直由扩展定律定义:系统的智能和能力由训练期间的计算能力、能源和数据输入规模决定。虽然这些扩展定律仍然适用,但最新且最强大的推理模型已经表明,AI能力随着系统在给定任务上可用的计算量或"推理"而扩展。推理期间可用的计算量受芯片内存带宽的限制。虽然H20的原始计算能力被华为制造的芯片超越,正如商务部长卢特尼克和副部长凯斯勒最近作证的那样,华为仍在生产数量上挣扎,而且没有中国国产芯片能够匹配H20的内存带宽。
因此,H20提供了中国公司 otherwise 无法获得的关键且独特的计算能力,并将弥补中国AI芯片的 otherwise 主要短缺。允许向中国出口H20芯片将浪费一个在美国AI主导地位面临新阶段竞争时加以扩展的机会。此外,美国AI芯片的出口不会阻止中国共产党追求AI栈的自力更生。
为此,我们强烈鼓励政府维持对H20芯片的控制。这些控制与行动计划建议的出口控制一致,对于确保和扩大美国的AI领先地位至关重要。
未来展望
我们许多建议与AI行动计划之间的一致性,表明对AI变革性潜力和维持美国领导力的紧迫行动需求有共同理解。
我们期待与政府合作实施这些举措,同时确保对灾难性风险给予适当关注,并维持强大的出口控制。通过共同努力,我们可以确保强大的AI系统在美国安全开发,由美国公司开发,反映美国的价值观和利益。
AI基础设施建设的战略意义
美国AI行动计划将基础设施建设置于核心位置,这一决策具有深远的战略考量。在全球AI竞争日益激烈的背景下,计算能力和能源供应已成为决定国家AI竞争力的关键因素。政府简化数据中心和能源许可的举措,直接回应了AI发展对能源的巨大需求。
数据显示,训练一个先进AI模型所需的电力足以支撑数百个家庭一年的用电量。随着AI模型规模的不断扩大,这一数字还将持续增长。没有足够的国内能源容量,美国的AI开发者不仅面临运营成本上升的问题,更可能被迫将数据中心建在能源政策宽松的国家,这可能导致敏感技术和算法外流,威胁国家安全。
Anthropic的"在美国建设AI"报告提出了具体建议,包括为AI基础设施提供税收激励、简化许可流程、投资智能电网技术等。这些建议若能落实,将显著提升美国在AI基础设施方面的竞争力,为AI创新提供坚实后盾。
联邦AI采用的实践路径
行动计划中关于增加联邦政府采用AI的建议,标志着政府正在积极拥抱AI技术,这不仅将提高公共服务效率,还将为AI技术的实际应用提供重要场景。
OMB解决资源限制和采购限制的任务至关重要。传统上,联邦机构的采购流程往往难以适应AI技术的快速迭代特性,导致采购周期过长,技术迅速过时。通过专门针对AI的采购改革,政府可以确保获取最新、最有效的AI解决方案,同时确保这些解决方案符合严格的安全和隐私标准。
识别和改革阻碍AI创新的联邦法规同样重要。许多现有法规是在AI技术出现前制定的,可能无意中对AI创新设置了障碍。通过系统性地审查这些法规,政府可以创建一个既保护公众利益又促进创新的监管环境。
AI民主化的多维实践
行动计划在AI民主化方面的努力体现了技术发展的包容性原则。NAIRR试点的延续确保了美国各地的学生和研究人员都能参与AI前沿研究,这不仅有助于培养下一代AI人才,还能促进AI研究的多样性和包容性。
值得注意的是,行动计划认识到技术转型对劳动力市场的影响,并提出针对性措施。历史上,技术进步往往导致某些工作岗位消失,而新的工作岗位需要不同的技能。AI革命可能加速这一进程,因此提前规划劳动力转型至关重要。
快速再培训项目和AI学徒前项目的提出,表明政府正在吸取历史教训,主动管理技术变革带来的社会影响。这些项目若能有效实施,将帮助美国劳动力适应AI时代,减少技术进步带来的社会不平等。
安全AI开发的科学基础
行动计划对安全AI开发的重视反映了强大AI系统带来的潜在风险。随着AI能力的不断增强,确保这些系统安全、可控变得尤为重要。
政府支持AI可解释性研究的决策具有前瞻性。可解释性AI(XAI)技术旨在理解AI系统的决策过程,使人类能够监督和控制这些系统。这对于关键应用如医疗诊断、金融决策和国家安全至关重要。随着AI系统变得越来越复杂,传统的"黑盒"方法已不再适用,可解释性研究将成为确保AI系统可靠性的关键。
AI控制系统的研究同样重要。这些系统旨在确保即使在面对意外情况或恶意输入时,AI系统也能按照人类意图运行。随着AI系统被赋予更多自主权,控制机制将成为防止灾难性失败的关键防线。
对抗鲁棒性的研究关注AI系统抵抗恶意攻击的能力。随着AI系统在关键基础设施中的广泛应用,确保这些系统免受对抗性攻击变得至关重要。这一领域的研究将帮助构建更安全、更可靠的AI系统。
透明度标准的全球影响
在AI开发透明度标准方面,行动计划虽然有所涉及,但仍有提升空间。透明度对于建立公众对AI技术的信任、促进负责任的创新以及有效的国际合作至关重要。
领先AI实验室已经实施的自愿安全框架展示了行业自律的可能性。Anthropic的ASL-3保护措施是一个积极信号,表明企业可以在不牺牲创新的情况下,主动承担安全责任。这种行业自律可以作为政府监管的补充,为最终形成全面的AI治理框架奠定基础。
关于国家层面AI透明度标准的讨论反映了治理模式的创新。过于详尽的监管可能扼杀创新,而完全缺乏监管则可能导致风险。寻找平衡点需要政府、行业、学术界和公民社会的广泛参与。美国有机会在这一领域引领全球,建立既促进创新又确保安全的透明度标准。
出口控制的地缘战略考量
行动计划在出口控制方面的立场体现了技术与地缘政治的复杂交织。AI技术不仅是经济竞争的工具,也是国家安全战略的重要组成部分。
H20芯片出口控制的争议凸显了这一复杂性。从技术角度看,H20芯片虽非最强大,但其内存带宽特性使其对中国AI发展具有重要价值。从战略角度看,限制此类芯片出口可以延缓对手的AI发展,为美国保持技术领先争取时间。
然而,出口控制也面临挑战。过度限制可能导致对手加速自主研发,同时可能损害美国企业的全球竞争力。因此,出口控制政策需要精心设计,在保护国家安全的同时,最小化对企业和创新的不利影响。
AI治理的全球协作
虽然本文主要聚焦美国AI行动计划,但值得注意的是,AI治理是全球性挑战,需要国际协作。美国在制定AI政策时,需要考虑全球影响,并积极参与国际AI治理框架的构建。
在出口控制、安全标准和透明度要求等方面,国际协调可以避免监管套利,确保全球AI发展朝着安全、可靠的方向前进。美国可以通过技术援助、能力建设和多边合作等方式,帮助其他国家建立负责任的AI开发能力,共同应对AI带来的全球挑战。
结论:平衡创新与安全的未来
美国AI行动计划代表了政府在AI治理方面的积极探索。该计划在加速AI基础设施、促进联邦AI采用、确保安全开发和维持出口控制等方面的举措,为美国在全球AI竞争中保持领先地位提供了战略框架。
然而,AI治理是一个持续演进的过程,需要政府、行业、学术界和公民社会的共同参与。随着技术的快速发展,政策也需要不断调整和更新。美国有机会在AI治理领域发挥领导作用,不仅通过技术创新,也通过负责任的治理实践,为全球AI发展树立榜样。
未来,平衡创新与安全、促进包容性增长、维护国家安全将成为AI政策的核心挑战。通过持续对话、科学研究和政策创新,美国可以构建一个既促进AI创新又确保其安全、可靠、公平使用的治理体系,为AI时代的人类繁荣奠定基础。









