引言:美国AI战略新篇章
2025年7月23日,白宫发布了《赢得竞赛:美国AI行动计划》(Winning the Race: America's AI Action Plan),这是一项旨在维持美国在AI领域发展优势的全面战略。该计划聚焦于加速AI基础设施建设、推动联邦政府采用AI技术、加强安全测试与安全协调等多个关键领域。作为AI领域的领先企业,Anthropic对这一计划表示赞赏,认为其许多建议与公司此前向科学技术政策办公室(OSTP)提交的回应相契合。然而,在肯定该计划为美国AI发展奠定基础的同时,我们也注意到严格出口控制和AI开发透明度标准仍是确保美国AI领导力的关键下一步。
加速AI基础设施与联邦采用
能源需求与基础设施挑战
行动计划将AI基础设施和采用作为优先事项,这与Anthropic今年3月向OSTP提交的建议一致。我们特别赞赏政府致力于简化数据中心和能源许可流程,以应对AI的能源需求。正如我们在OSTP提交材料及宾夕法尼亚能源与创新峰会上所强调的,如果没有足够的国内能源容量,美国AI开发者可能会被迫将业务转移到海外,这可能使敏感技术面临外国对手的威胁。
Anthropic近期发布的《在美国建设AI》报告详细列出了政府可以采取的措施,以加速我国AI基础设施的建设。我们期待与政府合作,扩大国内能源容量,确保美国AI产业拥有坚实的能源基础。
联邦AI采用的推进
行动计划提出的增加联邦政府采用AI的建议,与Anthropic的政策优先事项和对白宫的建议高度一致。这些措施包括:
- 管理与预算办公室(OMB)解决联邦AI采用面临资源限制、采购限制和项目障碍
- 发布信息请求(RFI),识别阻碍AI创新的联邦法规,由OMB协调改革努力
- 更新联邦采购标准,消除阻止机构部署AI系统的障碍
- 通过公私合作促进AI在国防和国家安全应用中的采用
这些举措将有助于美国政府更有效地利用AI技术,提升公共服务质量和国家安全能力。
民主化AI的广泛利益
国家AI研究资源(NAIRR)的延续
行动计划继续推进国家AI研究资源(NAIRR)试点项目,确保全国各地的学生和研究人员能够参与并贡献于AI前沿的发展。Anthropic一直支持NAIRR,并自豪地与该试点项目建立了合作伙伴关系。这一举措将 democratize AI 研究,使更多机构和研究者能够接触先进的AI工具和资源,促进创新和知识共享。
劳动力转型与AI技能培训
行动计划强调对被替代工人进行快速再培训项目,以及AI学徒前培训项目,这反映了政府从以往技术转型中吸取的教训,展现了将AI利益带给所有美国人的承诺。这些举措对于确保AI革命带来的经济利益能够广泛分布,同时减轻对劳动力的冲击具有重要意义。
经济影响评估
Anthropic的经济指数和经济未来计划旨在为研究人员和政策制定者提供数据和工具,确保AI的经济利益得到广泛分享,风险得到适当管理。这些努力将帮助政策制定者更好地理解AI如何正在并将继续转变我们的经济,从而制定更有效的应对策略。
促进安全的AI开发
强大AI系统的风险防范
未来几年,强大的AI系统将被开发出来。计划强调防范强大AI模型被滥用,并为未来AI相关风险做准备,这是恰当且重要的。特别是,我们赞赏政府优先支持AI可解释性、AI控制系统和对抗鲁棒性研究。这些是重要的研究方向,必须得到支持,以帮助我们处理强大的AI系统。
国家标准与技术研究院(NIST)的合作
我们高兴地看到行动计划肯定了国家标准与技术研究院AI标准和创新中心(CAISI)在评估前沿模型国家安全问题方面的重要工作,并期待继续与CAISI保持密切合作。我们鼓励政府继续投资CAISI。正如我们在提交材料中指出的,先进的AI系统在开发生物武器相关能力方面显示出令人担忧的进展。CAISI在开发测试和评估能力以应对这些风险方面发挥了主导作用。
生物安全与AI风险评估
特别值得关注的是AI系统在生物武器开发方面的潜在风险。随着AI能力的提升,这些风险变得更加紧迫。政府需要加强对这些独特且尖锐的国家安全风险的关注,并投入更多资源进行研究和防范。
国家透明度标准的必要性
超越测试的基本透明度要求
除了测试,我们认为基本的AI开发透明度要求,如安全测试和能力评估的公开报告,对负责任的AI开发至关重要。领先的AI模型开发者应遵守基本且可公开验证的标准,以评估和管理其系统带来的灾难性风险。Anthropic为前沿模型透明度提出的框架专注于这些风险。
行业自律与政府监管的平衡
包括Anthropic、OpenAI和Google DeepMind在内的领先实验室已经实施了自愿安全框架,这表明负责任的发展和创新可以共存。事实上,随着Claude Opus 4的发布,我们主动激活了ASL-3保护措施,防止其被用于化学、生物、放射性和核(CBRN)武器开发。这一预防性措施表明,强大的安全保护不仅不会减缓创新,反而有助于我们构建更好、更可靠的系统。
州级监管与联邦统一标准
我们与政府一样,担心过于具体的监管方法会造成不一致且繁琐的法律拼凑。理想的透明度要求应由政府通过单一的国家标准来制定。然而,与我们公开表达的信念一致,即对州AI法律实施十年禁令过于简单粗暴,我们继续反对旨在阻止各州制定保护公民免受强大AI系统潜在伤害措施的提案,前提是联邦政府未能采取行动。
维持严格的出口控制
地缘战略竞争与国家安全
行动计划指出,"拒绝我们的外国对手接触先进AI计算能力...既是地缘战略竞争也是国家安全问题"。我们完全同意这一观点。因此,我们对政府最近允许Nvidia H20芯片出口中国的决定感到担忧。
AI能力与计算规模的关系
AI发展一直由扩展定律定义:系统的智能和能力由训练期间的计算、能源和数据输入规模决定。虽然这些扩展定律仍然适用,但最新且最强大的推理模型已经表明,AI能力随着系统在给定任务上可用计算量的增加而扩展,即"推理"过程。推理过程中可用的计算量受芯片内存带宽的限制。
H20芯片的战略价值
虽然H20的原始计算能力被华为的芯片超越,但华为仍在努力提高产量,且没有中国国产芯片能匹配H20的内存带宽。因此,H20为中国公司提供了独特且关键的计算能力,否则将无法获得,并将弥补中国AI芯片的严重短缺。允许H20出口到中国将浪费在美国AI主导地位刚刚进入新竞争阶段时扩展这一优势的机会。此外,美国AI芯片的出口不会阻止中国共产党实现其在AI堆栈自力更生的目标。
展望未来:平衡发展与安全
共识与行动的迫切性
我们许多建议与AI行动计划之间的一致性,表明对AI变革性潜力的共同理解,以及维持美国领导力的紧急行动需求。未来,我们期待与政府合作实施这些举措,同时确保对灾难性风险给予适当关注,并保持严格的出口控制。
价值观与利益的体现
通过共同努力,我们可以确保强大的AI系统在美国安全开发,由美国公司开发,反映美国的价值观和利益。这不仅关乎技术领先,更关乎如何确保AI的发展方向符合民主、自由和人类福祉的核心价值。
全球AI治理的贡献
美国的AI战略不仅影响国内发展,也将对全球AI治理产生深远影响。通过制定合理的政策框架,美国可以为全球AI治理提供有价值的参考,促进国际合作,共同应对AI带来的全球性挑战。
结论:在创新与安全之间寻找平衡
美国的AI行动计划代表了政府在推动技术进步与确保安全发展之间寻求平衡的重要尝试。该计划在基础设施建设、联邦采用、安全研究和民主化AI方面提出了有价值的建议,但在出口控制和透明度标准方面仍存在争议。
未来,政府需要在保持技术领先与确保安全发展之间找到恰当平衡点。这需要政府、企业和研究机构的密切合作,共同制定既促进创新又保障安全的政策框架。只有这样,美国才能真正赢得AI竞赛,同时确保AI技术的发展符合人类的长远利益。
随着AI技术的快速发展,政策制定需要保持灵活性和前瞻性,能够适应技术变革带来的新挑战和新机遇。美国的AI行动计划是一个良好的开始,但持续的评估和调整将是确保其有效性的关键。











