智能前沿:美国AI行动计划的战略审视与未来展望
近日,美国白宫发布了名为《赢得竞争:美国AI行动计划》的综合性战略,旨在确保美国在人工智能发展领域的持续领先地位。这份行动计划对加速AI基础设施建设、推动联邦政府采纳AI技术、以及强化安全测试与安全协调等核心领域给予了高度关注,这与业界普遍期待的方向不谋而合。然而,为了真正巩固美国在全球AI领域的领导地位,进一步收紧出口管制和提升AI开发透明度标准,被认为是当前亟待推进的关键举措。
加速AI基础设施建设与联邦政府应用
该行动计划将AI基础设施和其在各领域的应用置于优先地位,这反映了对支撑AI技术发展基石的深刻理解。令人鼓舞的是,行政部门承诺将简化数据中心和能源许可流程,以有效应对AI技术日益增长的电力需求。正如行业专家所强调,若缺乏充足的国内能源供应,美国的AI开发者可能被迫将运营转移至海外,这无疑将使敏感技术面临落入潜在对手手中的风险。一份最新研究报告详细阐述了政府为加速国家AI基础设施建设可采取的具体措施,预示着未来在扩大国内能源容量方面,政府与业界将展开更紧密的合作。
计划中关于增加联邦政府AI采纳率的建议,也与行业领先者的政策主张高度契合。这些建议包括:
- 责成管理和预算办公室(OMB)解决联邦AI采纳过程中面临的资源限制、采购障碍和项目实施困境。
- 启动信息征询(RFI),以识别那些阻碍AI创新的联邦法规,并由OMB协调相应的改革工作。
- 更新联邦采购标准,移除阻碍各机构部署AI系统的障碍。
- 通过公私合作,在国防和国家安全应用中推广AI技术的采纳。
这些举措旨在打破现有壁垒,释放AI在公共服务和国家安全领域的巨大潜力,确保政府机构能够有效利用最前沿的AI工具。
推动AI普惠性与社会公平
行动计划同样关注确保AI发展的成果能够惠及社会各界,促进广泛参与,这体现了对技术公平性的深刻思考。国家AI研究资源(NAIRR)试点的持续,确保了全国范围内的学生和研究人员都能参与并贡献于AI前沿的进步。这一机制的长期支持,对于培养下一代AI人才和推动基础研究具有不可替代的价值。此外,行动计划强调为受技术转型影响的工人提供快速再培训项目,以及推行AI学徒前培训计划,这表明政府已经吸取了以往技术变革中的教训,致力于将AI的益处公平地传递给所有美国公民。
与这些提案相辅相成的是,业界为理解AI如何持续转型经济所做的努力。例如,通过发布“经济指数”和推行“经济未来计划”,旨在为研究人员和政策制定者提供必要的数据和工具,以确保AI的经济利益得到广泛共享,并且其潜在风险能够得到妥善管理。这不仅关乎技术发展,更关乎社会福祉与经济稳定。
强化AI安全开发与风险应对
展望未来,强大的人工智能系统必将持续涌现。因此,行动计划将防御强大AI模型被滥用,并为未来可能出现的AI相关风险做好准备,视为恰当且卓越的优先事项。尤其值得称赞的是,政府优先支持对AI可解释性、AI控制系统以及对抗鲁棒性等关键领域的研究。这些都是支撑强大AI系统安全运行和风险管理的重要研究方向,必须获得持续而有力的支持。
国家标准与技术研究院(NIST)下属的AI标准与创新中心(CAISI)在评估前沿模型对国家安全的影响方面扮演着至关重要的角色,行动计划对此予以肯定。业界期待与CAISI继续保持紧密合作。正如多方指出的那样,先进AI系统在生物武器开发等敏感能力方面已展现出令人担忧的进步。CAISI在开发应对这些风险的测试与评估能力方面发挥了主导作用。因此,我们鼓励将这些努力集中在AI系统可能构成的最独特、最严峻的国家安全风险上,以实现资源的最优配置。
建立统一的AI开发透明度标准
除了常规测试,业界普遍认为,基本的AI开发透明度要求,例如公开报告安全测试结果和能力评估,对于负责任的AI发展至关重要。领先的AI模型开发者应遵循基本且可公开验证的标准,以评估和管理其系统可能带来的灾难性风险。有观点提出的前沿模型透明度框架,正是聚焦于这些风险,但在行动计划中对此话题的深入探讨仍有提升空间。
包括领先实验室在内的许多企业,已经自愿实施了安全框架,这充分证明了负责任的发展与技术创新可以并行不悖。例如,在发布最新一代AI模型时,部分公司主动激活了ASL-3保护措施,以防止其被用于化学、生物、放射性和核(CBRN)武器开发。这一预防性步骤表明,健全的安全保护不仅不会阻碍创新,反而有助于我们构建更优质、更可靠的系统。
业界认同政府对过于指令性的监管方法可能导致“不一致且繁琐的法律碎片化”的担忧。理想情况下,这些透明度要求应由联邦政府通过单一国家标准来确立。然而,鉴于此前十年内暂停各州AI立法提案的工具过于粗糙,我们继续反对旨在阻止各州为保护其公民免受强大AI系统潜在危害而采取措施的提议,尤其是当联邦政府未能及时行动时。
维持严格的出口管制以巩固战略优势
行动计划明确指出,“拒绝我们的外国对手获取先进AI计算能力……既是地缘战略竞争,也是国家安全问题。”对此,业界表示高度认同。正因如此,对于行政部门近期在英伟达H20芯片对华出口问题上的立场逆转,我们深感忧虑。
AI发展一直遵循着规模法则:一个系统的智能和能力,由其在训练过程中所投入的计算力、能源和数据规模所决定。虽然这些规模法则持续有效,但最新且最具能力的推理模型已经证明,AI能力与系统在给定任务上可获得的计算量,即“推理”阶段的算力密切相关。推理阶段的算力受限于芯片的内存带宽。尽管H20的原始计算能力可能被一些国产芯片超越,但华为等企业在产量上仍面临挑战,且目前没有国产芯片能够匹敌H20的内存带宽。因此,H20提供了中国企业目前无法通过其他途径获得的独特且关键的计算能力,将弥补中国在AI芯片方面的巨大缺口。
允许H20对华出口,无异于在新的竞争阶段刚刚开始时,浪费了一个延长美国AI主导地位的战略机遇。此外,美国AI芯片的出口不会动摇中国致力于实现AI技术栈自给自足的决心。有鉴于此,我们强烈建议行政部门维持对H20芯片的出口管制。这些管制措施与行动计划中建议的出口管制精神保持一致,对于确保和扩大美国在AI领域的领先优势至关重要。
展望未来与持续合作
许多行业建议与美国AI行动计划之间的契合点,充分展示了对AI变革潜力的共同理解,以及为维持美国领导地位而必须采取的紧急行动。业界期待与行政部门紧密合作,共同实施这些倡议,同时确保对潜在灾难性风险给予充分关注,并维持强有力的出口管制。通过共同努力,我们可以确保强大的AI系统在美国境内,由美国企业安全开发,从而反映美国的价值观和利益,并在全球智能竞赛中占据主动。