近年来,全球电力消耗趋势发生了显著变化,尤其在美国,年度电力使用量呈现近4%的增长,这打破了过去数十年的平稳态势。这一增长与数据中心的快速扩张密切相关,其中很大一部分是为了满足人工智能(AI)应用激增的需求。值得关注的是,这种增长的电力需求部分依赖于燃煤发电的增加,例如今年5月,燃煤发电的占比同比上升了约20%。这无疑加剧了人们对AI环境影响的担忧。
然而,要精确评估AI的实际环境足迹并非易事。外部研究人员往往缺乏深入了解数据中心运营细节的权限,例如硬件的实际利用率以及处理AI查询的频率。学术界虽能测试单个AI模型的能耗需求,但将其推断至大规模的真实应用场景,其复杂性和不确定性显著增加。
与此形成鲜明对比的是,谷歌作为全球领先的科技巨头,拥有海量的真实世界运行数据。因此,谷歌近期发布的一份关于AI环境影响的深度分析报告,为我们提供了一个难得的视角,揭示了其在AI能耗优化方面的最新进展。该分析尤其引人注目的一点是,其数据显示,在短短一年内,单次AI查询的能耗消耗已惊人地降低了33倍,表明AI能源效率正处于一个快速迭代和改进的动态过程中。这一突破性进展不仅重新定义了我们对AI能耗的认知,也为整个行业树立了绿色计算的新标杆。
全面审视:AI能耗评估的边界与考量
在对AI能耗进行深入分析时,首先需要明确其评估范围,即哪些因素被纳入考量,哪些又被暂时排除。这对于确保分析的准确性和可比性至关重要。传统的能耗评估通常侧重于处理器在处理请求时的直接电力消耗,但这只是冰山一角。一个全面的评估还需要涵盖支持这些处理器运行所需的记忆体、存储、冷却系统以及其他基础设施的能耗。更进一步,硬件制造及其相关设施建设过程中产生的能源消耗也是不可忽视的。此外,AI模型在训练阶段消耗的巨大能量,虽然可以按比例分摊到每次推理请求中,但其具体量化仍是一个复杂问题。
过往的许多能耗分析往往因数据获取限制而未能涵盖所有相关因素,例如,研究人员可能无法精确得知特定任务所需的处理器数量,更难以估算其生产过程中的碳排放。然而,谷歌凭借其庞大的数据中心运营经验和供应链整合能力,拥有几乎所有必需的数据,能够进行更为全面的评估。这包括了服务请求所需的能耗、硬件资源、冷却需求等。
谷歌在其最新分析中,秉持全面性原则,对以下关键因素进行了细致跟踪:
- 计算核心能耗:涵盖中央处理器(CPU)、专用AI加速器以及内存(RAM)在处理查询时的活动能耗,同时考虑其在查询间隙的闲置能耗。
- 数据中心整体能耗与资源:包括数据中心作为一个整体的能源和水资源消耗,并根据AI查询所占用的比例进行估算。
- 碳排放足迹:不仅追踪了电力供应相关的碳排放,还纳入了所有使用硬件的生产过程中产生的排放,这与国际上普遍遵循的范围2和范围3排放标准保持一致。
尽管评估已相当全面,谷歌的报告也明确指出有三个主要因素暂时未被纳入本次计算:
- 网络传输能耗:用于接收请求和传输结果的网络带宽所消耗的能量。这部分能耗因请求性质的差异而波动巨大,难以标准化量化。
- 终端用户硬件能耗:用户设备(如游戏台式机或智能手机)在运行AI应用时产生的计算负载和能耗。这同样因设备类型和使用方式的不同而差异显著。
- 模型训练阶段的能耗:尽管谷歌无疑拥有模型训练的详细能耗数据,并且能够合理估算模型的有效生命周期及处理请求数量,但本次分析并未将其计入每次推理请求的成本。这是一个值得未来深入探讨的潜在领域。
为了得出具有代表性的数据,谷歌的团队追踪了24小时内所有请求及其所服务的硬件能耗,并记录了硬件的闲置时间。通过这种方式,他们能够估算出每次请求的平均能耗,这会根据所使用的AI模型而有所不同。每天,他们会识别出中位提示(median prompt),并以此来计算其环境影响。这种严谨的评估方法,确保了数据的可靠性和分析的深度。
效率飙升:AI能耗的显著下降及其驱动因素
根据谷歌的评估结果,单个文本请求的能源消耗已变得微乎其微。他们估算,一个典型的Gemini Apps文本提示仅消耗约0.24瓦时(Wh)的能量,产生0.03克二氧化碳当量(gCO2e),并消耗0.26毫升(约五滴)的水。为了更直观地理解,这一能耗大致相当于观看9秒电视所需的电量。从表面上看,这是一个令人鼓舞的数字,预示着AI服务正朝着更环保的方向发展。
然而,我们必须认识到,尽管单次请求的能耗很低,但AI请求的总量却极其庞大。谷歌已选择将AI操作融入每一次搜索请求中,这在几年前是无法想象的巨大计算需求。因此,即使个体影响微小,累积起来的总成本仍然不容忽视。这正是绿色AI发展面临的核心挑战:如何在实现大规模普及的同时,最大限度地降低其环境足迹。
振奋人心的消息是,与一年前相比,当前的能耗状况已大幅改善,否则情况将远比现在糟糕。这种显著的进步得益于多方面的协同努力。
首先,可再生能源的普及发挥了重要作用。随着美国及其他地区太阳能等可再生能源的蓬勃发展,谷歌能够更容易地获取清洁电力供应。在过去一年中,每单位能源消耗产生的碳排放量减少了1.4倍,这直接降低了AI服务的碳足迹。
但更关键的突破来自软件层面的深度优化。通过引入创新的软件架构和算法,谷歌实现了每处理一个提示所需的能耗降低了33倍,这是能耗效率提升的最大贡献者。
上图清晰地展示了服务AI请求时的主要能耗构成。其中,专用AI加速芯片的运行占据了总能耗的一半以上,其次是CPU和RAM。而闲置机器和运营开销分别约占总能耗的10%。这表明,优化AI加速器的效率对于整体节能至关重要。
谷歌团队详细描述了促成这一巨大进步的数项核心优化措施:
- 混合专家模型(Mixture-of-Experts, MoE):这是一种先进的神经网络架构,它能够根据特定的请求激活模型中仅需处理该任务的部分,而非整个模型。这种“按需激活”的机制可以将计算需求降低10到100倍,极大地提升了效率。
- 紧凑型模型开发:谷歌开发了多个其主模型的紧凑版本。这些小型化模型在保持高性能的同时,显著减少了计算负载和内存占用。
- 数据中心智能管理:通过精细化的数据中心运营策略,谷歌确保所有活跃硬件都能得到充分利用,并在不处理请求时迅速进入低功耗状态,从而最大程度地降低闲置能耗。
此外,谷歌在定制AI加速器设计和软件架构方面的垂直整合能力,也是其实现高效率的关键。由于谷歌自行设计其AI加速器并开发运行其上的软件,它能够在硬件和软件两端进行协同优化,确保两者之间达到最佳配合。这一点尤为重要,因为AI加速器上的活动占到了每次查询总能耗的一半以上。同时,谷歌在运营高效数据中心方面积累的丰富经验,也自然而然地延伸到了AI领域的能耗管理。
所有这些努力的综合成果是,谷歌估算,仅在过去一年中,典型文本查询的能源消耗就下降了33倍。这种效率的提升还带来了连锁反应:例如,建造硬件所产生的碳排放,现在可以分摊到硬件在其有效生命周期内处理的更多查询上,从而稀释了单次查询的碳足迹。
面对如此显著的效率提升,谷歌本可以将其仅作为一次公关宣传活动。然而,该公司却选择了以一种高度透明和学术化的方式,详细阐述了其测量方法和各项考量。采取这种开放策略的深层原因在于,这项工作背后的团队希望促使行业内的其他参与者也能采纳类似的评估方法。他们明确指出:“我们倡导广泛采用这种或类似的综合性测量框架,以确保随着人工智能能力的不断进步,其环境效率也能同步提升。”
这番呼吁不仅彰显了谷歌作为行业领导者的责任感,也为整个AI生态系统的可持续发展指明了方向。通过建立统一和全面的能耗评估标准,行业可以共同努力,推动更绿色、更高效的AI技术创新。这不仅仅关乎企业自身的社会责任,更是应对全球气候变化、实现数字经济与环境保护协调发展的重要策略。未来,AI的强大潜力应与对地球环境的深刻关怀并行,共同塑造一个更加可持续的智能世界。