美国AI行动计划:引领全球人工智能竞争的战略蓝图

0

引言:美国AI战略的新篇章

2025年7月23日,白宫发布了"赢得竞赛:美国AI行动计划",这是一套全面战略,旨在维持美国在人工智能开发领域的领先优势。该计划不仅反映了美国政府对AI技术的高度重视,也体现了其在全球AI竞争中保持领先地位的决心。计划聚焦于加速AI基础设施建设和联邦政府采用,同时加强安全测试和安全协调,为美国AI发展指明了方向。

值得注意的是,计划中的多项建议与Anthropic公司此前对科技政策办公室(OSTP)信息请求的回应高度一致。这种一致性表明,美国政府在制定AI政策时,充分考虑了行业领先企业和研究机构的意见。然而,尽管该计划为美国的AI advancement奠定了基础,我们仍需关注严格出口控制和AI开发透明度标准等关键领域,以确保美国AI领导力的持续稳固。

加速AI基础设施与联邦采用

能源基础设施:AI发展的基石

AI行动计划优先考虑AI基础设施和采用,这与Anthropic公司在3月向OSTP提交的立场一致。我们特别赞赏政府致力于简化数据中心和能源许可流程,以解决AI的能源需求问题。正如我们在OSTP提交材料及宾夕法尼亚能源与创新峰会上所强调的,如果没有足够的国内能源容量,美国AI开发者可能被迫将业务转移到海外,这可能导致敏感技术暴露于外国对手面前。

我们最近发布的"在美国建设AI"报告详细阐述了政府可以采取的措施,以加速我国AI基础设施的建设。我们期待与政府合作,扩大国内能源容量的措施。能源问题不仅关乎AI发展,更是国家竞争力的重要组成部分,需要从战略高度进行规划和投资。

联邦政府AI采用:从试点到全面应用

计划中关于增加联邦政府AI采用的建议,包括多项与Anthropic政策优先事项和白宫建议高度一致的提案:

  • 要求行政管理和预算办公室(OMB)解决联邦AI采用中的资源限制、采购限制和项目障碍。
  • 发放信息请求(RFI),以识别阻碍AI创新的联邦法规,由OMB协调改革努力。
  • 更新联邦采购标准,消除阻止机构部署AI系统的障碍。
  • 通过公私合作促进国防和国家安全应用中的AI采用。

这些措施将显著提高政府效率和服务质量,同时为AI技术在公共部门的广泛应用创造有利环境。联邦政府作为最大的数据拥有者和服务提供者,其AI采用将产生示范效应,推动整个社会的AI转型。

AI民主化:确保广泛参与和共享利益

国家AI研究资源(NAIRR)的持续发展

行动计划继续推进国家AI研究资源(NAIRR)试点项目,确保全国各地的学生和研究人员能够参与并贡献于AI前沿的发展。我们长期支持NAIRR,并为其试点项目感到自豪。NAIRR不仅为研究人员提供了宝贵的计算资源,更重要的是,它降低了AI研究的门槛,促进了创新生态的多元化。

劳动力转型:技术变革中的社会考量

行动计划强调对被替代工人的快速再培训项目和AI学徒前项目,这认识到了先前技术过渡中的不足,并致力于将AI的益处带给所有美国人。这种前瞻性思维体现了政府对技术变革社会影响的深刻理解,也为AI技术的可持续发展奠定了社会基础。

经济影响研究:数据驱动的政策制定

我们致力于理解AI如何正在并将继续转变我们的经济。经济指数和经济未来计划旨在为研究人员和政策制定者提供所需的数据和工具,确保AI的经济效益得到广泛共享,风险得到适当管理。这些研究将为政策制定提供科学依据,帮助政府更好地应对AI带来的经济挑战和机遇。

促进安全AI开发:应对未来挑战

强大AI系统的风险管理

未来几年,强大的AI系统将被开发出来。计划强调防范强大AI模型的滥用和准备未来AI相关风险是适当且重要的。特别是,我们赞赏政府优先支持AI可解释性、AI控制系统和对抗鲁棒性的研究。这些是重要的研究方向,必须得到支持,以帮助我们处理强大的AI系统。

国家标准与技术研究院(NIST)的关键作用

我们高兴地看到行动计划肯定了国家标准与技术研究院人工智能标准和创新中心(CAISI)在评估前沿模型国家安全问题方面的重要工作,并期待继续与他们保持密切合作。我们鼓励政府继续投资CAISI,该机构在开发测试和评估能力以应对这些风险方面发挥了主导作用。

生物安全:AI发展的新挑战

正如我们在提交材料中指出的,先进的AI系统在展示与生物武器开发相关能力方面的改进令人担忧。CAISI在开发测试和评估能力以应对这些风险方面发挥了主导作用。我们鼓励将这些工作集中在AI系统可能带来的最独特和最紧迫的国家安全风险上。生物安全问题是AI发展面临的新挑战,需要全球范围内的合作和协调。

国家标准:AI透明度与责任

透明度要求:负责任AI开发的基础

除了测试,我们认为基本的AI开发透明度要求,如安全测试和能力评估的公开报告,对负责任的AI开发至关重要。领先的AI模型开发者应遵守基本且可公开验证的标准,评估和管理其系统带来的灾难性风险。我们为前沿模型透明度提出的框架侧重于这些风险。

行业自律与政府监管的平衡

领先的实验室,包括Anthropic、OpenAI和Google DeepMind,已经实施了自愿安全框架,这表明负责任的发展和创新可以共存。事实上,随着Claude Opus 4的推出,我们主动激活了ASL-3保护措施,以防止其被用于化学、生物、放射性和核(CBRN)武器开发。这一预防性措施表明,强大的安全保护不仅不会减缓创新,反而有助于我们构建更好、更可靠的系统。

监管框架:避免碎片化

我们与政府一样,过于规定性的监管方法会造成不一致且繁重的法律拼凑。理想情况下,这些透明度要求应由政府通过单一国家标准提出。然而,与我们关于联邦政府未能采取行动时各州有权采取措施保护公民免受强大AI系统潜在伤害的立场一致,我们继续反对旨在防止各州制定保护措施的提案。监管需要在创新和安全之间找到平衡,避免过度监管扼杀创新,同时确保AI技术得到负责任的发展。

维护强大出口控制:战略竞争的关键

地缘政治竞争与国家安全

行动计划指出,"拒绝我们的外国对手接触先进AI计算能力...既是地缘战略竞争也是国家安全问题"。我们完全同意这一观点。因此,我们政府对向中国出口Nvidia H20芯片的决定感到担忧。

计算能力与AI性能的关系

AI发展一直由扩展定律定义:系统的智能和能力由其训练过程中的计算、能源和数据输入规模决定。虽然这些扩展定律仍然有效,但最新且最强大的推理模型已经表明,AI能力随着系统在给定任务上可用计算量或"推理"的增加而扩展。推理期间可用的计算量受芯片内存带宽限制。

H20芯片的战略重要性

虽然H20的原始计算能力被华为制造的芯片超越,但华为在生产量方面仍面临挑战,且没有中国国产芯片能匹配H20的内存带宽。因此,H20为中国公司提供了独特且关键的计算能力,将弥补中国AI芯片的巨大短缺。允许向中国出口H20芯片将浪费延长美国AI主导地位的机会,尤其是在竞争新阶段刚刚开始之际。此外,美国AI芯片的出口不会阻止中国共产党追求在AI堆栈中的自力更生。

展望未来:美国AI领导力的持续

行动计划与行业建议的一致性

我们许多建议与AI行动计划之间的一致性,表明我们对AI变革潜力的共同理解,以及维持美国领导力的迫切行动需求。

合作与风险管理的平衡

我们期待与政府合作实施这些举措,同时确保对灾难性风险给予适当关注,并保持强大的出口控制。共同努力,我们可以确保强大的AI系统在美国由美国公司安全开发,反映美国价值观和利益。

全球AI治理的挑战

随着AI技术的快速发展,全球AI治理变得越来越重要。美国需要在保持技术领先的同时,积极参与全球AI治理规则的制定,确保这些规则符合美国的价值观和利益。同时,美国也需要与其他民主国家合作,共同应对AI带来的全球性挑战,如安全风险、就业影响和社会伦理问题。

结论:AI战略的多维思考

美国的AI行动计划为未来AI发展提供了全面框架,涵盖了基础设施、采用、安全、透明度和出口控制等多个关键领域。然而,要真正实现AI技术的潜力和确保美国的领导地位,还需要持续的努力和创新。

首先,能源基础设施的扩展必须与AI发展同步进行,否则将面临技术和产业外流的风险。其次,联邦政府的AI采用需要克服官僚主义和采购障碍,真正发挥政府作为AI创新推动者的作用。第三,AI民主化不仅关乎技术获取,更关乎确保AI发展的多元化和包容性,避免技术垄断和社会分化。第四,安全AI开发需要政府、企业和研究机构的紧密合作,共同应对AI带来的各种风险。最后,透明度和责任机制需要在创新和监管之间找到平衡,确保AI技术的发展符合社会整体利益。

在全球AI竞争日益激烈的背景下,美国的AI行动计划不仅关乎技术发展,更关乎国家竞争力和全球领导地位。通过实施这一计划并持续完善相关政策,美国有望在AI时代继续保持领导地位,引领全球AI技术的发展方向。