深度解析美国AI行动计划:前沿突破、挑战应对与全球领导力展望

0

美国人工智能行动计划:全球领导力与未来挑战的深度解析

随着人工智能技术的迅猛发展,各国都在积极制定战略以确保其在全球AI领域的领先地位。近期,美国白宫发布了《赢得竞争:美国人工智能行动计划》,这份全面战略旨在巩固美国在AI研发上的优势。该计划对加速AI基础设施建设、推动联邦政府采纳AI技术、强化安全测试及协调安全措施的关注,无疑是值得肯定的积极信号。许多核心建议与我们此前向科学技术政策办公室(OSTP)提交的反馈意见高度契合。然而,要真正确保美国在AI领域的领导力,严格的出口管制和AI发展透明度标准仍是至关重要的下一步。

加速AI基础设施建设与广泛采纳

《行动计划》将AI基础设施和其在各领域的采纳置于优先位置,这与我们一直以来的主张高度一致。我们对政府致力于简化数据中心和能源项目审批流程的决心表示赞赏,此举旨在满足AI巨大的能源需求。正如我们在向OSTP提交的报告和在宾夕法尼亚州能源与创新峰会上所强调的,若缺乏充足的国内能源供应,美国AI开发者可能被迫将业务转移至海外,这无疑会增加敏感技术暴露给潜在对手的风险。我们近期发布的《在美国构建AI》报告详细阐述了政府可采取哪些措施来加速国家AI基础设施的建设,期待与政府携手推进国内能源容量的拓展。

此外,计划中关于提升联邦政府AI采纳率的建议,也与我们所倡导的政策重点高度契合。这些建议包括:

  • 责成管理与预算办公室(OMB)解决联邦AI采纳过程中面临的资源限制、采购障碍和项目实施难题。
  • 发起信息征询(RFI),以识别阻碍AI创新的联邦法规,并由OMB协调改革工作。
  • 更新联邦采购标准,移除阻碍机构部署AI系统的壁垒。
  • 通过公私合作,推动AI在国防和国家安全应用中的广泛采纳。

民主化AI效益的实现路径

我们完全认同《行动计划》中关于确保AI持续发展和部署能够惠及广泛人群的愿景。国家AI研究资源(NAIRR)试点项目的延续,将确保全国范围内的学生和研究人员都能参与并贡献于AI前沿的进步。我们长期以来一直支持NAIRR项目,并深以为傲能成为该试点计划的合作伙伴。更重要的是,《行动计划》强调为受技术变革影响的工人提供快速再培训项目,以及推行AI学徒前置计划,这表明政府已经吸取了以往技术转型中的经验教训,并致力于确保AI的益处能真正惠及所有美国民众。

为了更好地辅助这些政策提议的实施,我们自身也在积极探索AI如何改变、以及将如何改变我们的经济格局。通过“经济指数”和“经济未来计划”,我们旨在为研究人员和政策制定者提供所需的数据和工具,以确保AI带来的经济利益能够得到广泛共享,同时其潜在风险也得到妥善管理。这不仅关乎技术发展,更关乎社会公平与经济韧性。

推动安全与负责任的AI开发

在未来几年内,强大的人工智能系统将不可避免地被开发出来。《行动计划》将重点放在防范强大AI模型的滥用,并为未来可能出现的AI相关风险做准备,这种前瞻性思维是恰当且卓越的。特别值得称赞的是,政府优先支持了AI可解释性、AI控制系统以及对抗性鲁棒性等领域的研究。这些都是至关重要的研究方向,必须得到持续支持,以帮助我们有效应对日益强大的AI系统。

我们欣见《行动计划》确认了美国国家标准与技术研究院(NIST)人工智能标准与创新中心(CAISI)在评估前沿模型对国家安全影响方面的重要工作,并期待与其保持紧密合作。我们鼓励政府持续投资CAISI。正如我们在提交的意见书中所述,先进的AI系统在与生物武器开发相关的能力上已显示出令人担忧的进步。CAISI在开发应对这些风险的测试和评估能力方面发挥了主导作用。我们建议将这些努力集中在AI系统可能构成的最独特、最严重的国家安全风险上,以实现资源效益最大化。

建立统一的国家级标准势在必行

除了测试之外,我们坚信基础的AI开发透明度要求,例如公开报告安全测试结果和能力评估,对于负责任的AI开发至关重要。领先的AI模型开发者应遵守基本的、可公开验证的标准,以评估和管理其系统可能造成的灾难性风险。我们提出的前沿模型透明度框架便侧重于这些风险。虽然《行动计划》触及了这一话题,但我们希望报告能在此方面投入更多笔墨,提供更具体的指导。

包括Anthropic、OpenAI和Google DeepMind在内的领先实验室已经实施了自愿性安全框架,这证明负责任的开发与创新可以并行不悖。事实上,在推出Claude Opus 4时,我们主动激活了ASL-3保护措施,以防止其被用于化学、生物、放射性和核(CBRN)武器的开发。这一预防性步骤表明,强大的安全保护不仅不会减缓创新,反而有助于我们构建更优质、更可靠的系统。我们理解政府对于过于 prescriptive 的监管方式可能导致法律碎片化和负担过重的担忧。理想情况下,这些透明度要求应由政府通过统一的国家标准来确立。然而,我们仍坚持认为,如果联邦政府未能采取行动,阻止各州制定保护公民免受强大AI系统潜在危害的措施,将是一种过于生硬的手段。因此,我们继续反对旨在完全禁止州级AI立法的提案,除非有联邦层面的健全保障措施。

维护强有力的出口管制:战略核心

《行动计划》明确指出,“拒绝我们的外国对手获取[先进AI计算能力]……既是地缘战略竞争的问题,也是国家安全的问题。”我们对此深表认同。正因如此,我们对政府近期在英伟达H20芯片对华出口问题上的立场转变感到担忧。

AI的发展一直遵循着规模法则:系统的智能和能力由其训练阶段的计算、能源和数据输入规模决定。虽然这些规模法则依然成立,但最新、最具推理能力的模型已经表明,AI能力还会随着系统在特定任务上可用的计算量,即“推理”能力而扩展。推理阶段的计算量受限于芯片的内存带宽。尽管华为生产的某些芯片在原始计算能力上可能超过H20,但正如商务部长和副部长近期所证实的,华为在生产规模上仍面临挑战,且中国国内目前还没有一款芯片能在内存带宽方面与H20匹敌。因此,H20提供了中国公司在其他情况下无法获得的独特且关键的计算能力,将弥补中国在AI芯片方面存在的重大短缺。允许H20向中国出口,无异于在新一轮竞争刚开始之际,便放弃了扩大美国AI主导地位的宝贵机会。更重要的是,美国AI芯片的出口并不会改变中国寻求在AI堆栈上实现自给自足的决心。有鉴于此,我们强烈敦促政府继续维持对H20芯片的出口管制。这些管制与《行动计划》中建议的出口管制政策是一致的,对于确保和扩大美国在AI领域的领先优势至关重要。

展望未来:持续合作与风险管控

我们提出的诸多建议与《美国人工智能行动计划》之间的契合,清晰地表明了各方对AI变革潜力的共识,以及为维护美国领导地位而必须采取的紧迫行动。我们期待与政府携手合作,共同实施这些倡议,同时确保对潜在的灾难性风险给予充分关注,并持续执行强有力的出口管制措施。通过共同努力,我们能够确保强大的AI系统在美国境内得到安全开发,由美国公司负责,并最终体现美国的核心价值观和国家利益。这不仅是一场技术竞赛,更是一场关于价值观和治理模式的全球性较量,美国需凭借其前瞻性战略和坚实的技术基础,在全球AI浪潮中稳固其领导地位。