美国AI行动计划:如何平衡创新、安全与全球领导力?

1

深入剖析美国人工智能行动计划:驱动创新与保障安全的双重奏

美国白宫近日发布了名为“赢得竞争:美国人工智能行动计划”的综合性战略,旨在巩固美国在人工智能发展领域的领先地位。这份计划不仅强调加速AI基础设施建设和联邦政府机构的AI应用,还着重加强安全测试与协调,这无疑为未来AI生态系统的健康发展奠定了基石。行业内的普遍共识是,该计划的诸多建议与此前技术政策办公室(OSTP)征求信息阶段收集到的专家反馈高度吻合。然而,为了真正确保美国在AI领域的持续领导力,严格的出口管制和提升AI发展过程的透明度标准,仍被认为是不可或缺的关键下一步。

加速AI基础设施建设与广泛应用

“行动计划”将AI基础设施和应用视为优先发展方向,这与业界对于支撑AI爆发式增长的基础能力的呼吁不谋而合。考虑到人工智能模型对计算资源和能源的巨大需求,白宫承诺简化数据中心和能源项目的审批流程,这一点尤其值得称赞。当前,如果国内缺乏足够的能源容量,美国的人工智能开发者可能被迫将业务迁至海外,这不仅会增加运营成本,更可能使敏感技术面临被潜在对手获取的风险。有研究报告指出,美国政府可以采取一系列措施来加速国家AI基础设施的建设,这包括但不限于优化审批流程、提供财政激励以及支持绿色能源解决方案,以满足AI对能源日益增长的需求。与行政部门共同努力,拓展国内能源产能,是确保美国AI产业根深蒂固的关键。

此外,计划中关于提升联邦政府AI应用水平的建议,也与行业领先者的政策优先事项和对白宫的建议高度契合。具体措施包括:

  • 责成管理和预算办公室(OMB)解决联邦AI应用中存在的资源瓶颈、采购限制和程序障碍。
  • 启动信息征询(RFI),识别并改革阻碍AI创新的联邦法规,由OMB协调改革工作。
  • 更新联邦采购标准,移除阻碍机构部署AI系统的壁垒。
  • 通过公私合作,推动AI在国防和国家安全领域的广泛应用。

这些举措不仅能提升政府部门的运行效率,更将为AI技术的创新和成熟提供宝贵的应用场景和反馈机制。

民主化AI的普惠效益

“行动计划”强调确保人工智能持续发展和部署所带来的广泛参与和收益,这体现了其对社会公平和技术普惠的深切关注。国家AI研究资源(NAIRR)试点的延续,将确保全国各地的学生和研究人员能够参与并贡献于AI前沿的进步。这一举措长期以来得到了广泛支持,其与学术界和产业界的伙伴关系,是促进AI知识共享和人才培养的典范。同时,“行动计划”对为受技术转型影响的工人提供快速再培训项目,以及推行AI学徒前计划的重视,表明了吸取过去技术变革教训的决心,并致力于确保AI的红利能够惠及所有美国民众。为了更好地理解AI如何改变经济,并确保其经济效益能够广泛共享且风险得到妥善管理,相关研究机构和政策制定者正通过经济指数和未来经济计划等项目,努力提供所需的数据和工具。这些前瞻性工作将有助于构建一个更具韧性和包容性的未来经济图景。

促进安全的AI发展路径

随着强大人工智能系统在未来几年内逐步成熟,对这些系统潜在滥用的防范以及对未来AI相关风险的预备工作变得尤为重要。计划对支持AI可解释性、AI控制系统和对抗鲁棒性研究的优先次序,体现了高度的前瞻性。这些研究方向对于理解和驾驭强大的AI系统至关重要,是保障AI安全发展不可或缺的基石。

此外,计划明确肯定了美国国家标准与技术研究院(NIST)人工智能标准与创新中心(CAISI)在评估前沿模型国家安全问题方面的重要工作。CAISI在开发测试评估能力以应对这些风险方面发挥了关键作用,尤其是在生物武器开发等敏感领域。鼓励行政部门持续投资CAISI,并聚焦于AI系统可能带来的最独特和最严峻的国家安全风险,将有助于其发挥更大效能。例如,有证据表明,先进AI系统在与生物武器开发相关的能力方面取得了令人担忧的进展,CAISI的努力正是为了应对此类新兴威胁。

国家标准的必要性:透明度与责任

超越单纯的测试,我们深信基本的人工智能发展透明度要求,如对安全测试和能力评估进行公开报告,是负责任AI发展的核心要素。领先的AI模型开发者应遵循基本且可公开验证的标准,以评估和管理其系统可能带来的灾难性风险。一项提出的前沿模型透明度框架,便聚焦于这些风险,其目标是促进信息共享和风险共担。尽管如此,该报告在这一议题上仍有进一步深化的空间。

目前,包括Anthropic、OpenAI和Google DeepMind在内的领先实验室已经实施了自愿性安全框架,这有力证明了负责任的开发与创新可以并行不悖。例如,在推出Claude Opus 4时,便主动激活了ASL-3防护措施,以防止其被滥用于化学、生物、放射和核(CBRN)武器的开发。这一预防性步骤表明,强大的安全防护非但不会减缓创新,反而有助于构建更优质、更可靠的系统。

我们与行政部门同样担忧,过于规定性的监管方式可能导致法律法规的碎片化和繁重。理想情况下,这些透明度要求应由联邦政府通过单一的国家标准来统一制定。然而,鉴于对于暂停各州AI立法十年过于一刀切的看法,我们继续反对旨在阻止各州制定措施以保护其公民免受强大AI系统潜在危害的提案,特别是如果联邦政府未能采取行动的话。这表明在追求国家统一标准的同时,也需保留地方根据实际情况进行调整和补充的灵活性。

维持强有力的出口管制:战略竞争的基石

“行动计划”明确指出,“阻止我们的外国对手获取[先进AI计算能力]……既是地缘战略竞争,也是国家安全问题。”对此,我们表示强烈认同。正因如此,我们对行政部门近期在英伟达H20芯片对华出口问题上的立场逆转表示担忧。

AI的发展一直遵循着规模化法则:系统的智能和能力由训练期间的计算、能源和数据输入规模决定。尽管这些规模化法则依然成立,但最新、最具推理能力的模型已证明,AI能力还与给定任务中可供系统使用的计算量(即“推理”)呈正比。推理期间可用的计算量受芯片内存带宽的限制。虽然H20的原始计算能力可能被华为生产的某些芯片超越,但正如美国商务部长和副部长近期所证实,华为在生产规模上仍面临挑战,且目前中国国内生产的芯片在内存带宽方面尚未能与H20相匹敌。

因此,H20提供了独特且关键的计算能力,这些能力是中国公司原本无法获得的,它将弥补中国在AI芯片方面存在的巨大短缺。允许H20对华出口,无异于在新一轮竞争刚开始之际,便错失了扩大美国AI主导地位的良机。此外,美国AI芯片的出口并不能阻止中国在AI堆栈领域追求自给自足的决心。有研究指出,中国正积极推动本土化替代策略,即使短期内获得部分外部供应,也只是权宜之计,长期目标仍是实现完全自主可控。有鉴于此,我们强烈建议行政部门维持对H20芯片的管制。这些管制与“行动计划”中推荐的出口管制措施相符,对于巩固和扩大美国在AI领域的领先优势至关重要。

展望未来:共筑AI安全堡垒

我们的诸多建议与“美国AI行动计划”之间的高度一致性,表明了我们对人工智能变革潜力以及维持美国领导地位所需紧急行动的共同理解。我们期待与行政部门携手合作,共同实施这些倡议,同时确保对灾难性风险给予充分关注,并维持强有力的出口管制。通过共同努力,我们可以确保强大的AI系统在美国由美国公司安全地开发,充分体现美国的价值观和国家利益。