超越“赢得竞赛”:美国AI行动计划如何重塑全球智能格局?

0

美国白宫近期发布了名为《赢得竞赛:美国AI行动计划》的全面战略,旨在巩固美国在人工智能领域的核心优势。这份计划详细阐述了通过加速AI基础设施建设、推动联邦政府采纳AI技术、强化安全测试以及加强跨机构安全协调等多方面举措,确保美国在全球AI竞争中保持领先地位。作为人工智能领域的领先机构,Anthropic对该计划的核心方向表示高度认可,并指出其中诸多建议与公司此前向科技政策办公室(OSTP)提交的意见书不谋而合。然而,为了真正锁定美国在AI领域的领导地位,Anthropic进一步强调,在严格的出口管制和AI发展透明度标准方面,仍有关键的提升空间。

深入剖析这份行动计划,其对AI基础设施的重视程度是显而易见的。计划优先考虑提升国家的AI运算能力和能源供给,这与Anthropic在提交给OSTP的报告中提出的核心观点高度一致。当前,人工智能技术的发展对数据中心和能源消耗提出了前所未有的需求。因此,简化数据中心和能源项目的审批流程,不仅能够有效降低AI研发的门槛和运营成本,更是确保美国本土AI创新活力的战略性举措。Anthropic曾多次强调,若国内能源供应不足或审批壁垒过高,美国的AI开发者可能被迫将核心业务迁移至海外,这无疑会增加敏感技术泄露给潜在竞争对手乃至地缘战略对手的风险,从而削弱美国的科技主导权。Anthropic发布的《在美国发展AI》报告详细阐述了政府应如何加速国家AI基础设施建设,通过一系列政策引导和资源投入,确保美国能够支撑未来AI爆发式增长所需的海量算力与能源。

在联邦政府采纳AI技术方面,行动计划也提出了与Anthropic政策主张高度契合的建议。其中,明确授权管理和预算办公室(OMB)解决联邦AI采纳过程中的资源瓶颈、采购限制和项目障碍,是提升效率的关键。联邦机构在引入新技术时常面临复杂的采购流程和固有的官僚障碍,这些都可能延缓AI应用的普及。通过发布信息征询书(RFI),识别并改革阻碍AI创新的联邦法规,将为新技术的快速落地清除制度性障碍。同时,更新联邦采购标准,移除阻碍机构部署先进AI系统的壁垒,将鼓励更多创新型AI解决方案进入政府市场。特别是在国防和国家安全领域,通过公私合作模式推动AI技术应用,不仅能提升军事和情报能力,还能在快速变化的全球安全格局中占据战略优势。这些举措共同构成了提升美国政府AI应用水平的系统性框架,对于激发全社会AI创新潜力具有示范效应。

《赢得竞赛》行动计划同样关注人工智能的普惠性,旨在确保AI的持续发展和部署能惠及社会各界。这体现了美国政府对AI技术伦理和社会影响的深思熟虑。计划中明确指出将继续支持国家AI研究资源(NAIRR)试点项目,这一举措对于弥合学术界与工业界之间的数字鸿沟、促进全国范围内的学生和研究人员参与AI前沿研究具有深远意义。NAIRR作为一个共享的计算资源平台,能够为缺乏昂贵计算资源的研究者提供平等的AI研发机会,从而激发更多元化的创新思想和技术突破。Anthropic作为NAIRR的长期支持者和合作伙伴,深知其在培育下一代AI人才和推动基础研究方面的价值。

此外,行动计划对受AI影响的劳动力市场也给予了充分关注。通过推出针对失业工人的快速再培训项目和AI学徒前培训项目,美国政府试图避免历史性技术转型中可能出现的社会阵痛。这表明政策制定者已经吸取了过去工业革命的经验教训,致力于通过积极的劳动力政策,确保AI带来的经济利益能够广泛共享,而不是加剧社会分化。 Anthropic在这方面也做出了积极贡献,其“经济指数”和“经济未来项目”致力于研究AI对经济结构、劳动力市场和生产力模式的影响。这些研究为政策制定者提供了宝贵的数据和分析工具,帮助他们预见AI带来的挑战,并制定有效的应对策略,确保AI发展在经济上具有可持续性和包容性。

在促进安全AI发展方面,行动计划表现出高度的战略远见。面对未来可能出现的强大人工智能系统,计划强调防御AI模型滥用和防范未来AI相关风险的必要性,这无疑是及时且至关重要的。特别值得称赞的是,政府优先支持对AI可解释性、AI控制系统和对抗鲁棒性等关键领域的研究。AI可解释性研究旨在理解AI模型决策背后的机制,这对于建立信任、识别偏见和确保系统行为可预测性至关重要。AI控制系统则致力于开发能够有效管理和约束强大AI行为的技术,防止其脱离人类控制或产生意外的负面影响。而对抗鲁棒性研究则关注如何增强AI系统抵御恶意攻击和欺骗的能力,确保其在复杂环境中的稳定性和安全性。这些基础性研究的投入,将为未来开发更安全、更可靠的AI系统奠定坚实基础。

国家标准与技术研究院(NIST)下属的AI标准与创新中心(CAISI)在评估前沿模型对国家安全的影响方面发挥着关键作用,行动计划对此予以肯定并呼吁持续投资。CAISI在开发测试评估能力以应对AI系统可能带来的国家安全风险,特别是生物武器开发风险方面,取得了显著进展。Anthropic认为,应将这些努力聚焦于AI系统可能造成的独特且最严重的国家安全风险,从而实现资源的最优化配置。通过建立健全的评估框架,CAISI可以帮助政府和行业识别潜在的危险能力,并制定相应的缓解策略,确保AI技术在可控范围内发展。

尽管行动计划在许多方面取得了进展,但Anthropic认为,建立全国性的AI发展透明度标准是当前迫切需要解决的问题。这种透明度应包括模型开发者公开报告其安全测试结果和能力评估,作为负责任AI发展的基础要求。前沿AI模型,因其强大的能力,可能带来灾难性风险,因此,对这些模型进行基本且可公开验证的评估和风险管理标准是不可或缺的。Anthropic提出的前沿模型透明度框架便专注于这些风险,呼吁行业建立统一的报告机制。目前,包括Anthropic、OpenAI和Google DeepMind在内的领先实验室已经自愿实施了内部安全框架,这充分证明了负责任的发展与技术创新可以并行不悖。例如,Anthropic在推出Claude Opus 4时,便主动激活了ASL-3防护措施,以防止其被用于化学、生物、放射性及核(CBRN)武器的开发。这一预防性措施不仅没有阻碍创新,反而有助于构建更稳定、更可靠的AI系统。

Anthropic与美国政府一样,对于过度规范的监管方法可能导致法律碎片化和负担加重表示担忧。理想情况下,这些透明度要求应由联邦政府通过单一的国家标准来实施。然而,考虑到避免“一刀切”式立法可能带来的僵化,Anthropic反对旨在阻止各州制定保护其公民免受强大AI系统潜在危害的措施的提议,尤其是当联邦政府未能及时采取行动时。这种立场体现了在追求国家统一标准与尊重地方立法自主权之间的平衡考量。

在维护严格出口管制方面,行动计划的表述与Anthropic的立场高度一致,即“阻止外国对手获取先进AI计算能力……事关地缘战略竞争和国家安全”。Anthropic对此深表赞同,因此对美国政府近期在英伟达H20芯片对华出口政策上的逆转表示担忧。

人工智能的发展一直遵循着规模法则:系统的智能和能力与其在训练过程中所投入的计算力、能源和数据规模密切相关。尽管这些规模法则持续有效,但最新的、能力最强的推理模型已证明,AI能力在处理特定任务时,其“推理”阶段可获得的计算资源量对性能具有决定性影响。而推理阶段的计算能力往往受限于芯片的内存带宽。尽管华为等中国企业制造的芯片在原始计算能力上可能与H20旗鼓相当,甚至有所超越,但正如美国商务部长和副部长近期所证实,华为在生产规模上仍面临挑战。更重要的是,目前中国国内生产的芯片尚未有能在内存带宽方面与H20匹敌的产品。

因此,H20芯片能够提供中国企业通过其他途径无法获得的独特且关键的计算能力,它将弥补中国在AI芯片方面存在的巨大短缺。允许H20芯片出口到中国,无疑将白白浪费美国在AI领域扩大领先优势的良机,尤其是在全球AI竞争进入新阶段的当下。此外,允许美国AI芯片出口,也无法阻止中国共产党追求在整个AI技术栈上实现自给自足的战略目标。反而,这可能为他们提供宝贵的喘息之机,延缓其实现完全自主的紧迫性。

鉴于以上分析,Anthropic强烈敦促美国政府维持对H20芯片的出口管制。这些管制措施与行动计划中建议的出口管制精神完全一致,并且对于确保和扩大美国在AI领域的领导地位至关重要。

展望未来,Anthropic的诸多建议与《赢得竞赛:美国AI行动计划》之间的高度契合,充分展现了各方对AI变革潜力的共识,以及为保持美国领导地位所需采取的紧迫行动。Anthropic期待与美国政府紧密合作,共同实施这些战略举措,同时确保对灾难性风险给予充分关注,并持续维护严格的出口管制。通过共同努力,我们可以确保强大的AI系统在美国境内由美国公司安全地开发,从而体现美国的价值观和国家利益,引领全球人工智能的健康发展。