AI能耗革命:谷歌如何将AI查询能耗降低33倍?

1

近年来,人工智能技术的飞速发展正深刻改变着各行各业,从智能客服到自动驾驶,从科学研究到内容创作,AI的应用无处不在。然而,伴随其巨大潜力而来的,是AI算力需求对能源消耗的指数级增长。特别是在美国,近一年来的电力使用量增长了近4%,结束了数十年来的平稳态势,而数据中心的快速扩张正是这一变化的主要驱动力,其中很大一部分是为了满足AI使用量的激增。这种趋势引发了人们对AI环境影响的深切担忧,尤其是在部分地区,燃煤发电的比重仍在上升。

评估AI的实际环境足迹并非易事,因为它需要深入了解数据中心的运营细节,例如硬件的运行频率以及AI查询所占用的资源比例。学术界虽然可以测试单个AI模型的功耗,但要将其推断到真实的、大规模的应用场景中,挑战重重。缺乏第一手数据使得任何外部评估都难以全面准确。

在此背景下,谷歌最近发布的一项关于AI环境影响的分析报告,为我们提供了一个难得的窗口,得以一窥其大规模AI运行的能耗实况。这份报告的核心发现令人振奋:谷歌在过去一年中,成功将单次AI搜索查询的能耗降低了33倍。这一惊人的进步表明,AI的能源效率正处于一个快速迭代和优化的关键时期。

AI能耗评估的全面考量

要准确衡量AI的能耗,首要问题便是确定评估范围。除了处理请求时处理器消耗的能量外,还必须考虑支持这些处理器所需的内存、存储、散热系统以及数据中心基础设施的整体能耗。更进一步看,制造所有这些硬件设备和建造相关设施所耗费的能量也不容忽视。此外,AI模型在训练阶段会消耗大量能源,这部分成本如何摊销到每次查询中,也是一个复杂的议题。

过往的许多能耗分析往往因数据获取的限制而不得不简化考量因素。例如,分析人员可能无法准确得知特定任务需要分配多少处理器,更遑论生产这些硬件所产生的碳排放。然而,谷歌作为AI领域的巨头,拥有无可比拟的内部数据,能够获取从请求处理能耗到硬件成本、散热需求等几乎所有关键信息。该公司遵循“范围2”和“范围3”排放标准,意味着它不仅追踪直接运营(如发电)产生的排放,还涵盖了供应链等间接活动产生的排放。

在本次新分析中,谷歌追踪了CPU、专用的AI加速器和内存(包括活跃处理查询和查询间闲置状态)的能耗。它还监控了整个数据中心的能源和水资源消耗,并根据AI查询所占的比例进行估算。此外,报告还纳入了电力供应相关的碳排放,以及所有使用硬件生产过程中产生的排放。这种全面的视角,为我们描绘了一幅更为细致和准确的AI能耗图景。

不过,也有一些因素未被纳入本次评估。例如,用于接收请求和传递结果的网络传输能耗因其多变性而未被计算;终端用户硬件(如游戏台式机与智能手机之间存在巨大差异)的计算负荷也未被考虑。一个本可合理估算但未包含的重要部分是模型训练的影响。尽管谷歌无疑了解其模型训练的巨大能耗,并能估算出模型的使用寿命和处理请求数量,但为聚焦于运营效率,这部分能耗暂未计入当前报告中。为了得出典型数据,研究团队追踪了24小时内请求及其服务硬件的能耗和闲置时间,从而估算出每次请求的平均能耗,并以此计算环境影响。

单次AI查询的微观足迹与宏观挑战

根据谷歌的评估,单个文本查询的影响 surprisingly 小。他们估计,一次Gemini Apps文本提示平均消耗0.24瓦时(Wh)的能量,排放0.03克二氧化碳当量(gCO2e),并消耗0.26毫升(约五滴)水。形象地说,这个能耗量大约相当于观看九秒电视所消耗的电量。这无疑是个积极的信号,表明AI服务的单位能耗已得到显著优化。

数据中心外观

然而,好消息的另一面是,AI查询的总量无疑是极其庞大的。谷歌已选择在每一次搜索请求中执行AI操作,这带来了几年前尚不存在的计算需求。因此,尽管单个查询的影响微乎其微,但累积起来的总成本仍然可能是相当可观的。这提示我们,在享受AI便利的同时,也必须正视其大规模应用可能带来的整体环境负荷。

值得庆幸的是,若回到一年前,AI的能耗状况会比现在糟糕得多。这表明谷歌的努力已取得了显著成效,为行业树立了标杆。这种进步并非偶然,而是多方面因素共同作用的结果。

一个彩色条形图显示了不同硬件的能源使用百分比。AI加速器是最大的使用者,其次是CPU和RAM。闲置机器和开销各占约10%。 AI请求服务中大部分能源消耗来自定制加速芯片的运行。

效率提升的奥秘:软硬件协同优化

谷歌实现能耗大幅下降的关键在于其在软硬件层面进行的一系列深度优化。首先,环境因素提供了一部分助力。随着美国及其他地区太阳能发电的蓬勃发展,谷歌更容易获得可再生能源供应。因此,每单位能耗产生的碳排放量在过去一年中减少了1.4倍。但这仅仅是冰山一角,真正的决定性突破源于软件层面的创新,这些创新使得每次提示的能耗降低了惊人的33倍。

谷歌团队详细描述了多项贡献良多的优化措施。其中一项是被称为“混合专家模型(Mixture-of-Experts, MoE)”的方法。这种技术能够根据特定请求仅激活AI模型中必要的部分,从而将计算需求降低10到100倍。通过智能地路由请求到最适合的专家模块,避免了对整个大型模型的全面激活,极大地提升了效率。此外,谷歌还开发了多个主模型的紧凑版本,这些小型化模型同样能有效降低计算负载。

数据中心的高效管理也扮演着重要角色。谷歌确保所有活跃硬件都得到充分利用,同时允许其余设备保持低功耗状态。这种智能的资源调度和能耗管理,如同精密的管弦乐队指挥,让每一份计算资源都发挥最大效用,同时最大限度地减少闲置能耗。

更关键的是,谷歌拥有自主设计定制AI加速器(TPU)的能力,并能针对这些硬件架构开发配套的软件。这种软硬件的协同优化,使得双方能够完美地配合,发挥出极致的性能与效率。鉴于AI加速器在查询总能耗中占据超过一半的比重,这种一体化的设计优势显得尤为重要。谷歌在运营高效数据中心方面积累的丰富经验,也自然地延续并应用于其AI基础设施之中。

所有这些努力的综合成果便是,据估计,典型文本查询的能耗在短短一年内下降了33倍。这种效率的提升还带来了连锁效应:例如,与硬件制造相关的碳排放成本,会因为硬件在其使用寿命内能处理更多查询而被“稀释”,从而降低了单位查询的隐含环境成本。

呼吁行业共筑可持续AI未来

面对如此显著的效率提升,谷歌本可以将其单纯作为一项公关成就进行宣传。然而,该公司却选择以一种类似学术出版物的方式,详细阐述了其方法论和考量因素。这正是因为这项工作背后的团队希望该领域内的其他同行也能采纳其方法。他们总结道:“我们倡导广泛采用这种或类似全面的测量框架,以确保随着AI能力的进步,其环境效率也能同步提升。”

谷歌的这一举动,不仅彰显了其在推动AI技术进步方面的责任感,更重要的是,它为整个行业树立了一个透明和协作的典范。在一个AI技术日益渗透我们生活的时代,确保其发展是可持续的,已成为一项刻不容缓的全球性任务。通过分享其在能耗优化方面的经验和测量框架,谷歌正积极引导行业走向一个更加绿色、更加负责任的未来。这不仅仅关乎技术,更关乎我们赖以生存的地球环境。通过共同努力,我们有望在享受AI带来便利的同时,有效控制其对环境的影响,实现科技与自然的和谐共生。