深度解析:美国AI行动计划如何巩固全球领导力
美国白宫近日发布的《赢得竞争:美国AI行动计划》是一份具有里程碑意义的战略文件,旨在全面维护和提升美国在人工智能领域的全球领先地位。这份综合性计划强调加速AI基础设施建设、推动联邦政府采纳AI技术,以及强化安全测试与安全协调机制。业界普遍对该计划在能源、数据中心、政府采购和人才培养等方面的积极举措表示赞赏。许多建议与领先AI研究机构和行业专家的见解高度契合,体现了在关键战略优先事项上的广泛共识。然而,为了全面巩固美国在AI领域的领导地位,实施更严格的出口管制和提升AI发展透明度标准,被认为是至关重要的下一步。
赋能基础设施与联邦应用:AI发展的基石
该行动计划将AI基础设施建设和应用列为优先事项,这与业界对AI发展核心支撑要素的认知高度一致。
能源与数据中心建设的战略考量
政府致力于简化数据中心和能源项目审批流程的承诺,对于满足AI技术日益增长的电力需求至关重要。长期以来,业界专家和政策研究机构一直在强调,如果国内能源供应能力不足,美国的AI开发者可能会被迫将运营转移到海外。这种潜在的海外转移不仅可能导致技术和人才流失,更可能使敏感技术暴露给地缘政治竞争对手。有报告详细分析了政府可以通过哪些具体步骤来加速国家AI基础设施的建设,并期待与行政部门合作,共同推进国内能源能力的拓展。这项工作是保障AI产业长远发展,维护国家技术主权的关键。
联邦政府AI应用与创新
行动计划中关于增加联邦政府对AI技术采纳的建议,包含了多项与先进AI企业政策建议高度契合的提案:
- 解决资源与采购障碍:建议由管理和预算办公室(OMB)负责解决联邦AI采纳过程中存在的资源限制、采购壁垒以及项目实施障碍。这有助于确保政府部门能够有效获取和部署所需的AI工具与服务。
- 识别阻碍AI创新的联邦法规:发起信息征询(RFI),旨在识别并修订那些可能阻碍AI创新和应用的联邦法规。OMB将在此过程中协调各项改革工作,以创建更加有利于技术发展的政策环境。
- 更新联邦采购标准:对现有的联邦采购标准进行更新,以消除阻碍各机构部署AI系统的障碍。这一举措将提高政府机构采纳前沿AI技术的灵活性和效率。
- 国防与国家安全领域的AI推广:通过公私合作模式,推动AI在国防和国家安全应用中的广泛采纳。这不仅能够提升国家安全能力,也为AI技术在关键领域的应用提供了实践平台。
促进AI普惠:共享经济效益与人才培养
行动计划着重强调了确保AI持续发展和部署能够惠及社会各界,力求实现AI技术的广泛普惠性。
国家AI研究资源(NAIRR)的持续推进
计划继续实施国家AI研究资源(NAIRR)试点项目,确保全国范围内的学生和研究人员都能参与到AI前沿的进步中来。业界对此表示长期支持,并积极参与该试点项目。NAIRR通过提供计算资源和数据访问,极大地降低了AI研究的门槛,促进了跨机构和跨学科的合作。此外,行动计划重视为受技术转型影响的工人提供快速再培训项目,以及推行AI学徒前计划。这表明政府认识到以往技术变革中可能出现的社会问题,并致力于确保AI的经济效益能公平地惠及所有美国公民。
经济转型与AI的社会影响研究
为了更好地理解AI如何改变并将在未来改变经济格局,有研究机构致力于提供必要的数据和工具,以帮助研究人员和政策制定者确保AI的经济利益得到广泛共享,并有效管理潜在风险。这些研究项目,如经济指数和经济未来计划,对于制定前瞻性政策,实现AI技术与社会发展的良性互动具有指导意义。
强化AI安全开发:构建弹性与信任
鉴于未来几年强大AI系统将持续涌现,行动计划强调防御强大AI模型的滥用,并为未来潜在的AI相关风险做好准备,这一点显得尤为恰当和出色。特别值得称赞的是,行政部门优先支持AI可解释性、AI控制系统和对抗性鲁棒性等领域的研究。这些都是至关重要的研究方向,对于我们有效管理强大AI系统具有深远意义。
前沿模型评估与国家安全
国家标准与技术研究院(NIST)下属的AI标准与创新中心(CAISI)在评估前沿模型对国家安全的影响方面发挥着关键作用。行动计划肯定了CAISI的这项重要工作,业界也期待能继续与其保持密切合作。业界呼吁行政部门持续加大对CAISI的投入。尤其需要关注的是,先进AI系统在生物武器开发相关能力方面展现出令人担忧的进步。CAISI在开发测试和评估能力以应对这些风险方面一直发挥着主导作用。业界建议将这些努力集中在AI系统可能带来的最独特和最严重的国家安全风险上。
建立国家AI开发透明度标准
除了严格的测试,业界认为基础的AI开发透明度要求,例如公开报告安全测试结果和能力评估,对于负责任的AI开发至关重要。领先的AI模型开发者应遵循基本且可公开验证的标准,以评估和管理其系统可能带来的灾难性风险。某些框架侧重于应对这些风险,并主张对此类前沿模型实施透明度要求。然而,行动计划在这方面还有进一步强化的空间。
领先的实验室已经自愿实施了安全框架,这表明负责任的开发与创新可以并行不悖。事实上,在推出新模型时,部分公司主动启动了高级别防护措施,以防止其技术被滥用于化学、生物、放射和核(CBRN)武器开发。这一预防性措施证明,强大的安全防护非但不会减缓创新,反而有助于构建更好、更可靠的系统。
业界认同行政部门对过度规范性监管方法可能导致“不一致且繁琐的法律拼凑”的担忧。理想情况下,这些透明度要求应由政府通过单一的国家标准来制定。然而,如果联邦政府未能采取行动,业界也反对旨在阻止各州制定措施以保护其公民免受强大AI系统潜在危害的提议,这反映了在联邦层面缺乏统一标准时,地方政府采取行动的必要性。
维持强有力的出口管制:战略竞争的制胜点
行动计划明确指出,“阻止外国竞争对手获取先进AI计算能力……既是地缘战略竞争,也是国家安全问题。”业界对此深表认同。因此,部分企业对行政部门近期在向某些国家出口特定高性能AI芯片方面的政策调整表示担忧。
计算能力与AI发展的关系
AI发展一直遵循规模化定律:一个系统的智能和能力由其训练期间的计算、能源和数据输入规模决定。尽管这些规模化定律持续有效,但最新、最强大的推理模型已表明,AI能力会随着系统在给定任务上可用的计算量(即“推理”阶段)而扩展。推理阶段的计算量受限于芯片的内存带宽。尽管某些国家生产的芯片在原始计算能力上可能超越特定型号的美国芯片,但在生产规模和内存带宽等关键指标上仍存在显著差距。
因此,特定高性能美国芯片提供了独特且关键的计算能力,是其他国家公司可能无法获得的。允许此类芯片出口可能会浪费延长美国AI主导地位的机会,尤其是在新一轮竞争即将开始之际。此外,美国AI芯片的出口并不会阻止某些国家追求在AI堆栈中的自给自足。
有鉴于此,业界强烈鼓励行政部门维持对高性能AI芯片的严格管制。这些管制措施与行动计划中推荐的出口管制政策相符,对于确保和扩大美国在AI领域的领先地位至关重要。
展望未来:共塑AI发展新范式
业界诸多建议与美国AI行动计划之间的契合,展现了各方对AI变革潜力以及维护美国领导地位所需采取紧急行动的共识。业界期待与行政部门合作,共同实施这些倡议,同时确保对灾难性风险给予充分关注并维持强有力的出口管制。通过共同努力,我们可以确保强大的AI系统在美国得到安全开发,由美国企业主导,并充分体现美国的价值观和利益。