美国人工智能行动计划:机遇与挑战并存
2025年7月23日,白宫发布了名为《赢得竞赛:美国人工智能行动计划》的综合战略,旨在巩固美国在人工智能(AI)发展领域的领先地位。该计划聚焦于加速人工智能基础设施建设和联邦政府的应用,同时加强安全测试和安全协调,这些举措无疑令人鼓舞。Anthropic 对此计划表示赞赏,并认为其中的许多建议与该公司之前对科技政策办公室(OSTP)的信息请求的回应相符。
Anthropic 此前提交的回复中,就已强调了加速人工智能基础设施建设和联邦政府采用的重要性。虽然该计划为美国在人工智能领域的进步奠定了基础,但Anthropic 认为,严格的出口管制和人工智能开发透明度标准仍然是确保美国人工智能领导地位的关键。
加速人工智能基础设施建设与应用
行动计划优先考虑人工智能基础设施建设和应用,这与 Anthropic 在 3 月份提交给 OSTP 的建议相一致。
Anthropic 对政府致力于简化数据中心和能源许可,以满足人工智能的电力需求表示赞赏。正如 Anthropic 在提交给 OSTP 的文件中以及在宾夕法尼亚能源与创新峰会上所指出的那样,如果没有足够的国内能源容量,美国人工智能开发商可能会被迫将业务迁往海外,从而可能将敏感技术暴露给外国。
Anthropic 最近发布的“在美国建设人工智能”报告详细说明了政府可以采取哪些措施来加速美国人工智能基础设施的建设,并且 Anthropic 期待与政府合作,共同扩大国内能源容量。
该计划中关于增加联邦政府对人工智能的应用的建议,也与 Anthropic 的政策重点和对白宫的建议密切相关。这些建议包括:
- 责成管理和预算办公室(OMB)解决联邦政府在人工智能应用中面临的资源限制、采购限制和项目障碍。
- 发起一项信息请求(RFI),以确定阻碍人工智能创新的联邦法规,并由 OMB 协调改革工作。
- 更新联邦采购标准,以消除阻止机构部署人工智能系统的障碍。
- 通过公私合作,促进人工智能在国防和国家安全领域的应用。
实现人工智能的普及化
Anthropic 与行动计划的重点一致,致力于确保更广泛地参与人工智能的持续开发和部署,并从中受益。
行动计划继续推行国家人工智能研究资源(NAIRR)试点项目,确保全国各地的学生和研究人员能够参与并为人工智能前沿的进步做出贡献。Anthropic 长期以来支持 NAIRR,并为其与试点项目的合作关系感到自豪。此外,行动计划强调为流离失所的工人提供快速再培训计划和人工智能预备学徒计划,这表明政府认识到先前技术变革的错误,并致力于将人工智能的益处带给所有美国人。
为了配合这些提议,Anthropic 正在努力了解人工智能如何改变以及将如何改变经济。经济指数和经济期货计划旨在为研究人员和政策制定者提供所需的数据和工具,以确保人工智能的经济利益得到广泛分享,风险得到适当管理。
促进安全的人工智能发展
在未来几年中,强大的人工智能系统将会不断涌现。该计划强调防御强大人工智能模型的滥用,并为未来与人工智能相关的风险做好准备,这是非常恰当和出色的。Anthropic 尤其赞赏政府优先支持对人工智能可解释性、人工智能控制系统和对抗性鲁棒性的研究。这些都是重要的研究方向,必须得到支持,以帮助人类应对强大的人工智能系统。
Anthropic 很高兴行动计划肯定了国家标准与技术研究院人工智能标准与创新中心(CAISI)在评估前沿模型对国家安全问题方面的重要工作,并且期待继续与他们保持密切合作。Anthropic 鼓励政府继续投资于 CAISI。正如 Anthropic 在提交的文件中指出的那样,先进的人工智能系统在与生物武器开发相关的能力方面表现出令人担忧的改进。CAISI 在开发测试和评估能力以应对这些风险方面发挥了主导作用。Anthropic 鼓励将这些努力重点放在人工智能系统可能构成的最独特和最严重的国家安全风险上。
国家标准的必要性
除了测试之外,Anthropic 认为基本的人工智能开发透明度要求,例如公开报告安全测试和能力评估,对于负责任的人工智能开发至关重要。应该要求领先的人工智能模型开发商遵守评估和管理其系统造成的灾难性风险的基本且可公开验证的标准。Anthropic 提出的框架侧重于这些风险。Anthropic 希望看到该报告在该主题上做得更多。
包括 Anthropic、OpenAI 和 Google DeepMind 在内的领先实验室已经实施了自愿安全框架,这表明负责任的开发和创新可以共存。事实上,随着 Claude Opus 4 的推出,Anthropic 主动激活了 ASL-3 保护,以防止滥用化学、生物、放射性和核武器(CBRN)的开发。这一预防措施表明,强大的安全保护措施不仅不会减缓创新,反而有助于构建更好、更可靠的系统。
Anthropic 与政府一样,担心过度规范的监管方法会造成不一致且繁琐的法律。理想情况下,这些透明度要求将来自政府,并采用单一国家标准的形式。然而,根据 Anthropic 明确的信念,即十年暂停州人工智能法律的实施过于武断,Anthropic 继续反对旨在阻止各州颁布措施以保护其公民免受强大人工智能系统可能造成的潜在危害的提议,如果联邦政府未能采取行动。
维持强有力的出口管制
行动计划指出,“拒绝人类的国外对手获得[先进的人工智能计算能力]……事关地缘战略竞争和国家安全。” Anthropic对此表示强烈赞同。因此,Anthropic 对政府最近在向中国出口 Nvidia H20 芯片方面的政策转变感到担忧。
人工智能的发展一直受到规模定律的制约:系统的智能和能力取决于训练期间的计算、能源和数据输入的规模。虽然这些规模定律仍然有效,但最新和最具推理能力的模型已经证明,人工智能能力随着系统在给定任务上可用的计算量(或“推理”)而扩展。推理期间可用的计算量受到芯片内存带宽的限制。虽然华为生产的芯片超过了 H20 的原始计算能力,但正如商务部长 Lutnick 和副部长 Kessler 最近作证的那样,华为仍在努力提高产量,并且没有国内生产的中国芯片与 H20 的内存带宽相匹配。
因此,H20 提供了独特而关键的计算能力,否则中国公司将无法获得,并将弥补中国在人工智能芯片方面的主要短缺。允许向中国出口 H20 将浪费一个机会,即在美国人工智能优势即将开始新一轮竞争之际扩大美国的优势。此外,美国人工智能芯片的出口不会转移中国共产党对人工智能堆栈的自力更生的追求。
为此,Anthropic 强烈建议政府维持对 H20 芯片的管制。这些管制与行动计划建议的出口管制相一致,对于确保和发展美国在人工智能领域的领先地位至关重要。
展望未来
Anthropic 的许多建议与人工智能行动计划之间的一致性表明,Anthropic 对人工智能的变革潜力以及维持美国领导地位所需的紧迫行动有着共同的理解。
Anthropic 期待与政府合作实施这些举措,同时确保适当关注灾难性风险并维持强有力的出口管制。Anthropic 坚信,通过共同努力,可以确保强大的人工智能系统在美国由美国公司安全开发,反映美国的价值观和利益。
有关 Anthropic 政策建议的更多详细信息,请参阅 Anthropic 提交给 OSTP 的完整文件,以及 Anthropic 在负责任的人工智能开发和 Anthropic 最近关于提高国内能源容量的报告中正在进行的工作。