在人工智能领域,美国白宫于2025年7月发布了一项名为“赢得竞赛:美国人工智能行动计划”的全面战略,旨在通过放松管制、基础设施投资和国际合作,保持美国在全球人工智能技术领域的领导地位。该计划一经公布,便引发了广泛的讨论和争议,尤其是在监管、能源需求以及对科技巨头的潜在影响等方面。该计划由总统科学和技术助理Michael Kratsios以及人工智能和加密技术特别顾问David Sacks共同制定,将人工智能发展视为一场美国必须赢得的竞赛,尤其是在与中国的竞争中。这份长达25页的文件强调了人工智能作为“工业革命、信息革命和文艺复兴”的催化剂的潜力,并呼吁移除那些被政府认为是阻碍私营部门创新的监管障碍。值得注意的是,该计划明确推翻了前任政府,也就是拜登时代的多项政策,其中包括关于人工智能模型安全措施的第14110号行政命令。特朗普在上任的第一天就撤销了该命令。
该文件指出:“谁拥有最大的人工智能生态系统,谁就将制定全球人工智能标准,并获得广泛的经济和军事利益。”这种竞争态势被比作1960年代的太空竞赛。该计划的三大支柱——创新、基础设施和国际外交——均包含加速人工智能应用,同时防止被特朗普政府视为对手的国家获取美国技术的政策建议。
该计划呼吁对联邦政府监管人工智能的方式进行重大变革。它指示管理和预算办公室与联邦机构合作,识别并修订那些“不必要地阻碍人工智能开发或部署”的法规。此外,该文件还指示联邦贸易委员会审查在前任政府领导下启动的所有调查,以确保它们不会“推进不适当地加重人工智能创新负担的责任理论”。然而,特朗普的计划并未受到所有人的欢迎。公共公民组织的科技问责倡导者J.B. Branch在一份声明中批评特朗普向科技公司提供“优惠待遇”,这将导致“电费上涨,以补贴大型人工智能数据中心的折扣电力”。
特朗普的新人工智能计划正面应对了基础设施问题,指出“人工智能是现代生活中第一个挑战美国建设比我们今天拥有的更大的能源服务的数字服务。”为了满足这一需求,它提议通过新的国家环境政策法案(NEPA)豁免来简化数据中心的环境许可,使联邦土地可用于建设,并实现电网现代化——所有这些都明确拒绝“激进的气候教条和官僚主义的繁文缛节”。该文件拥抱所谓的“建设,宝贝,建设!”方法——呼应特朗普的竞选口号——并承诺通过CHIPS计划办公室恢复半导体制造,尽管剥夺了“无关的政策要求”。
在技术方面,该计划指示商务部修订NIST的人工智能风险管理框架,以“消除对错误信息、多样性、公平性和包容性以及气候变化的引用。”联邦采购将倾向于其系统“客观且没有自上而下的意识形态偏见”的人工智能开发人员。该文件强烈支持开源人工智能模型,并呼吁将美国人工智能技术出口给盟友,同时阻止像中国这样的政府标记的对手。安全提案包括高安全性军事数据中心和警告,即先进的人工智能系统“可能在网络攻击和武器开发中构成新的国家安全风险”。
在白宫公布其计划之前,90多个组织于周二发起了一项竞争性的“人民人工智能行动计划”,将特朗普政府的方法描述为“对科技行业的大规模施舍”,优先考虑企业利益而非公共福利。该联盟包括工会、环境正义团体和消费者保护非营利组织。人工智能研究所的联合执行董事Sarah Myers West和Amba Kak表示:“白宫人工智能行动计划是由投资于推进用于我们的人工智能的大型科技利益集团编写的,而不是由我们编写的。”该研究所帮助组织了这份声明。“我们不能让大型科技公司和大型石油游说者以牺牲我们的自由和平等、工人及其家庭的福祉,甚至是我们呼吸的空气和饮用的水为代价,来制定人工智能和我们经济的规则——所有这些都受到不受约束和不负责任的人工智能推广的影响,”该联盟的声明写道。
该联盟的担忧主要集中在几个关键问题上:数据中心的环境影响、潜在的失业以及缺乏有意义的安全标准。West告诉《华盛顿邮报》:“这项技术的推广正在以降低工资、贬低我们的工作、危害我们的环境和影响社区健康的方式进行。”全国护士联合会主席Cathy Kennedy在联盟的声明中表示:“护士反对我们的患者被用作不受监管和未经测试的人工智能技术的豚鼠。我们支持人工智能,当它被用来提高我们照顾患者的能力时,而不是当它被行业用来降低劳动力成本并以牺牲患者为代价增加利润时。”
白宫驳斥了这些担忧。OSTP发言人Victoria LaCivita告诉《华盛顿邮报》:“正是这种恐惧精神让中国在前任政府领导下取得了重大进展。人工智能是我们国家安全和经济利益的中心。将美国放在首位意味着确保新兴技术和创新可以在国内蓬勃发展——而不是与我们的外国对手一起。”
对“美国人工智能行动计划”的深度解读与批判性分析
“美国人工智能行动计划”的出台,无疑在全球科技界引发了一场轩然大波。该计划以一种近乎“竞赛”的姿态,将人工智能的发展置于国家战略的高度,强调要在全球范围内保持美国的绝对领先地位。然而,透过其看似宏伟的蓝图,我们不难发现其中隐藏的诸多争议与挑战。
首先,该计划的核心策略之一是“放松管制”。诚然,过多的监管可能会束缚创新,但完全放任自流则可能导致伦理、安全等问题的失控。尤其是在人工智能这种具有高度潜在风险的领域,适当的监管是必不可少的。取消拜登政府时期关于人工智能模型安全措施的第14110号行政命令,无疑是一个值得商榷的决定。这种做法是否真的能够加速创新,还是仅仅为科技巨头们打开了“潘多拉魔盒”,值得我们深入思考。
其次,该计划对基础设施和能源需求的强调,无疑是切中时弊的。人工智能的发展离不开强大的计算能力和数据存储能力,而这背后则需要大量的能源消耗。然而,该计划在解决能源问题时,却采取了一种颇具争议的方式——简化环境许可,甚至不惜牺牲环境来换取发展。这种“先发展后治理”的模式,是否真的符合可持续发展的理念?我们是否应该在追求技术进步的同时,更加注重环境保护?
此外,该计划对“意识形态偏见”的担忧,也引发了人们的关注。在人工智能的开发和应用过程中,不可避免地会涉及到价值观的考量。然而,将价值观简单地归结为“意识形态偏见”,并试图通过行政手段来消除,是否真的可行?我们是否应该更加注重多元价值观的融合,而不是试图强行统一?
最后,该计划对国际合作的强调,无疑是明智之举。在全球化的今天,任何一个国家都无法独立解决人工智能发展所面临的挑战。然而,该计划在强调国际合作的同时,却将中国等国家视为“对手”,这种对抗性的姿态是否真的有利于全球人工智能的健康发展?我们是否应该更加注重合作共赢,而不是零和博弈?
总而言之,“美国人工智能行动计划”既有其积极的一面,也存在诸多争议与挑战。我们应该以一种批判性的眼光来看待它,既要看到其潜在的机遇,也要警惕其可能带来的风险。只有这样,我们才能更好地把握人工智能发展的未来。
“人民人工智能行动计划”:对科技发展方向的另一种呼唤
在白宫高调推出其“人工智能行动计划”之际,一个由90多个组织组成的联盟适时地发起了“人民人工智能行动计划”,这无疑为我们提供了一个从不同角度审视人工智能发展方向的机会。这个联盟由工会、环境正义团体和消费者保护非营利组织构成,他们的声音代表了更广泛的公众利益,而不仅仅是科技行业的商业考量。
“人民人工智能行动计划”的核心关切在于,科技进步不应以牺牲公共福利为代价。他们认为,人工智能的发展应该服务于全体人民,而不是仅仅让少数科技巨头受益。这种观点与白宫的计划形成了鲜明对比,后者似乎更侧重于通过放松管制来刺激创新,而较少关注可能产生的社会和环境影响。
该联盟对数据中心的环境影响表示担忧。这些数据中心是人工智能运行的基石,但它们同时也消耗大量的能源,并可能对当地社区造成污染。他们呼吁对数据中心的环境影响进行更严格的监管,并鼓励使用可再生能源来减少其碳足迹。此外,他们还对人工智能可能导致的失业问题表示担忧。随着自动化技术的不断发展,许多工作岗位可能会被机器取代。他们呼吁政府采取措施,帮助工人适应这种变化,例如提供职业培训和教育机会。
最重要的是,“人民人工智能行动计划”强调了人工智能安全标准的重要性。他们认为,在没有充分的安全保障的情况下,不应允许人工智能系统被广泛应用。他们呼吁政府制定全面的安全标准,以确保人工智能系统不会对人类造成伤害。这些标准应包括对算法的透明度要求,以及对人工智能系统进行独立测试和评估的机制。
“人民人工智能行动计划”的出现,提醒我们科技发展不仅仅是一个技术问题,更是一个社会问题。我们需要在追求技术进步的同时,充分考虑其可能产生的社会和环境影响。我们需要确保科技的发展能够真正服务于全体人民,而不是仅仅让少数人受益。只有这样,我们才能构建一个更加公正、可持续和繁荣的未来。
人工智能发展:平衡创新、监管与社会责任
“美国人工智能行动计划”与“人民人工智能行动计划”的对比,实际上反映了在人工智能发展过程中,创新、监管与社会责任之间的一种内在 tension。一方面,我们需要鼓励创新,以推动技术的进步和经济的发展。另一方面,我们需要加强监管,以确保技术的安全和可靠。同时,我们还需要承担社会责任,以确保技术的发展能够服务于全体人民。
如何在三者之间取得平衡,是一个复杂而艰巨的任务。过度的监管可能会扼杀创新,而完全放任自流则可能导致伦理和安全问题的失控。我们需要找到一个合适的平衡点,既能鼓励创新,又能确保技术的安全和可靠。
为了实现这一目标,我们需要采取一种多方参与的方法。政府、企业、研究机构和社会组织都应该参与到人工智能发展的决策过程中来。我们需要建立一个开放、透明和包容的对话平台,以促进各方之间的沟通和理解。
同时,我们需要加强对人工智能伦理问题的研究。我们需要深入探讨人工智能可能对人类价值观和社会规范产生的影响,并制定相应的伦理准则。这些准则应该涵盖人工智能的各个方面,包括算法的设计、数据的收集和使用,以及系统的部署和应用。
此外,我们还需要加强对人工智能安全问题的研究。我们需要开发新的技术和方法,以确保人工智能系统不会被恶意利用。我们需要建立一套完善的安全评估体系,以对人工智能系统进行全面的测试和评估。
最后,我们需要加强对公众的教育和宣传。我们需要提高公众对人工智能的认知水平,并帮助他们理解人工智能可能带来的机遇和挑战。我们需要鼓励公众参与到人工智能发展的讨论中来,并让他们有机会表达自己的观点和担忧。
总之,人工智能的发展是一个复杂而多维的过程。我们需要在创新、监管与社会责任之间取得平衡,以确保技术的安全、可靠和可持续发展。只有这样,我们才能真正实现人工智能的潜力,并将其转化为全人类的福祉。