深度解析美国AI行动计划:全球AI领导地位的挑战与机遇何在?

2

美国AI行动计划:前瞻性战略与全球领导力展望

近日,白宫发布了题为“赢得竞争:美国AI行动计划”的全面战略,旨在巩固并扩大美国在人工智能领域的全球领导地位。该计划的核心在于加速AI基础设施建设、推动联邦政府对AI技术的采纳,并同步加强AI系统的安全测试与跨部门安全协调。作为人工智能领域的重要参与者,我们对该计划中许多与我们此前向科学技术政策办公室(OSTP)提交的建议相吻合的举措表示高度认可。然而,尽管该计划为美国AI的进步奠定了基础,但我们认为,严格的出口管制和AI开发透明度标准仍是确保美国AI领导力不可或缺的关键下一步。

驱动AI基础设施与联邦采纳的战略考量

行动计划将AI基础设施建设和政府部门对AI的采纳置于优先地位,这与我们一直以来的主张高度一致。我们对政府致力于简化数据中心和能源项目审批流程的承诺表示赞赏,这对于满足AI日益增长的能源需求至关重要。正如我们此前在OSTP提交的报告中所强调,如果缺乏充足的国内能源供应能力,美国AI开发者可能被迫将运营转移至海外,这无疑会增加敏感技术泄露给潜在对手的风险。我们发布的《在美国构建AI》报告详细阐述了政府可以采取的措施,以加速国家AI基础设施的建设,我们期待与政府一道,共同推动国内能源能力的拓展。

此外,计划中关于提升联邦政府AI采纳的建议,也与我们所倡导的政策优先级和建议不谋而合。这包括:

  • 责成管理和预算办公室(OMB)解决联邦AI采纳过程中面临的资源限制、采购瓶颈和项目障碍。
  • 启动信息征询(RFI),以识别并修改阻碍AI创新的联邦法规,由OMB协调改革工作。
  • 更新联邦采购标准,消除阻碍政府机构部署AI系统的壁垒。
  • 通过公私合作,促进AI在国防和国家安全领域的应用。

赋能AI普惠化:技术红利的共享与教育转型

行动计划高度重视确保广泛参与AI持续发展并从中受益,这与我们深信的AI普惠理念不谋而合。计划中对国家AI研究资源(NAIRR)试点项目的延续,将确保全国各地的学生和研究人员都能参与并贡献于AI前沿的进步。我们长期以来一直支持NAIRR,并对其试点项目中的伙伴关系感到自豪。此外,行动计划强调针对失业工人提供快速再培训项目,以及推行AI学徒前培训项目,这表明政府已经吸取了以往技术转型中的经验教训,致力于将AI的益处普惠于所有美国民众。

为配合这些提案,我们也在积极探索AI如何重塑当前经济格局及未来的发展趋势。通过“经济指数”和“经济未来项目”,我们旨在为研究人员和政策制定者提供必要的数据和工具,以确保AI的经济红利得以广泛共享,并有效管理其潜在风险。

强化AI开发的安全与可控性

未来几年,强大的人工智能系统将不断涌现。行动计划着重防御强大AI模型的滥用,并为未来AI相关的风险做好准备,这一方向至关重要。我们尤其赞扬政府优先支持AI可解释性、AI控制系统和对抗鲁棒性等领域的研究。这些都是必须得到支持的重要研究方向,有助于我们更好地驾驭强大的AI系统。

我们乐见行动计划肯定了国家标准与技术研究院(NIST)下属AI标准与创新中心(CAISI)在评估前沿模型国家安全风险方面的重要工作,并期待与其继续保持密切合作。我们鼓励政府持续投资CAISI。正如我们此前提交的报告所述,先进AI系统在与生物武器开发相关的能力方面表现出令人担忧的进步。CAISI在开发应对这些风险的测试和评估能力方面发挥了主导作用。我们鼓励将这些工作重点放在AI系统可能带来的最独特和最严重的国家安全风险上。

构建国家级AI标准与透明度框架

除了测试之外,我们认为基本的AI开发透明度要求,例如公开报告安全测试结果和能力评估,对于负责任的AI发展至关重要。领先的AI模型开发者应遵守基本的、可公开验证的标准,以评估和管理其系统可能带来的灾难性风险。我们提出的前沿模型透明度框架便着眼于这些风险,尽管我们希望报告能在此问题上投入更多笔墨。

包括Anthropic、OpenAI和Google DeepMind在内的领先实验室已经实施了自愿性安全框架,这证明了负责任的开发与创新可以并存。事实上,随着Claude Opus 4的推出,我们主动激活了ASL-3保护措施,以防止其被用于化学、生物、放射性和核(CBRN)武器的开发。这一预防性步骤表明,健全的安全防护措施非但不会减缓创新,反而有助于我们构建更好、更可靠的系统。

我们与政府同样关注过于严苛的监管方法可能导致法律碎片化和负担过重。理想情况下,这些透明度要求应由政府通过单一国家标准来制定。然而,鉴于我们此前的主张是,对州级AI法律实行十年暂停期过于武断,我们继续反对旨在阻止各州制定措施以保护其公民免受强大AI系统潜在危害的提案,特别是当联邦政府未能采取行动时。

维护强有力的出口管制:战略博弈的核心

行动计划明确指出,“阻止外国对手获取(先进AI计算能力)……既是地缘战略竞争,也是国家安全问题。”我们对此深表认同。正因如此,我们对政府近期在英伟达H20芯片对华出口问题上的立场转变感到担忧。

AI的发展一直遵循着规模法则:一个系统的智能和能力由其训练阶段的计算、能源和数据输入规模决定。尽管这些规模法则持续有效,但最新、最具推理能力的模型已经证明,AI能力与系统在给定任务中可用的计算量(即“推理”)成正比。推理期间可用的计算量受限于芯片的内存带宽。尽管华为生产的芯片在原始计算能力上可能超越H20,但正如商务部长和副部长近期所证,华为在生产规模上仍面临挑战,并且目前没有国产中国芯片的内存带宽能与H20匹敌。

因此,H20提供了中国公司目前无法获得的独特且关键的计算能力,将弥补中国在AI芯片方面的巨大短缺。允许H20对华出口将错失在新的竞争阶段开始之际,扩大美国AI主导地位的机会。此外,美国AI芯片的出口并不会阻止中国寻求在AI堆栈领域实现自给自足。为此,我们强烈敦促政府继续维持对H20芯片的出口管制。这些管制与行动计划中建议的出口管制措施一致,对于确保和扩大美国AI领先地位至关重要。

展望未来:美国AI政策的挑战与机遇

我们的诸多建议与美国AI行动计划的高度契合,表明各方对AI的变革潜力以及为维持美国领导地位所需采取的紧急行动有着共同的理解。我们期待与政府携手合作,共同实施这些举措,同时确保对灾难性风险给予充分关注,并维持强有力的出口管制。通过共同努力,我们可以确保强大的AI系统在美国境内,由美国公司安全开发,并充分体现美国的价值观和利益。