谷歌Gemini一次提示能耗≈看9秒电视,专家:别太信,有误导性

谷歌Gemini一次提示能耗≈看9秒电视,专家:别太信,有误导性

文章图片

谷歌Gemini一次提示能耗≈看9秒电视,专家:别太信,有误导性

机器之心报道
机器之心编辑部
谷歌最近发布了一项关于其 AI 模型 Gemini 能源消耗的研究报告 。

博客地址:https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference 技术报告:https://services.google.com/fh/files/misc/measuring_the_environmental_impact_of_delivering_ai_at_google_scale.pdf报告中指出 , 处理一个中位数的 Gemini 文本提示仅消耗约 0.26 毫升水(约五滴)、0.24 瓦时电力(相当于观看电视不到九秒) , 并产生 0.03 克二氧化碳排放 。
注:中位数(Median)是统计学中用于描述数据集中趋势的指标之一 。 它是指将一组数据按大小顺序排列后 , 位于中间位置的数值 。 这里指研究人员在对多次 Gemini 处理文本提示的资源消耗进行测量后 , 将所有的消耗数据(水量、电力、碳排放)分别进行了排序 。

谷歌表示 , 他们在 2024 年 5 月至 2025 年 5 月期间 , 已将单个文本提示的能耗降低了 33 倍 , 碳足迹减少了 44 倍 。


谷歌还强调 , 其测量方法比传统方式更为全面 , 不仅计算了 AI 加速器在活跃状态下的能耗 , 还纳入了服务器待机、辅助硬件消耗以及数据中心冷却和电力分配等总开销 。
谷歌将这些较低的数值归功于其「全栈式」效率优化方法 , 涵盖模型架构、算法、硬件等多个层面 。 具体而言:
在模型架构层面:Gemini 基于 Transformer 架构 , 相较于此前最先进的语言建模架构 , 效率提升达 10 至 100 倍 。 此外 , 谷歌还采用了一些其他优化方案 , 例如 MoE 和混合推理模式 。
在算法层面:谷歌采用 AQT(Accurate Quantized Training) 等方法 , 在不降低响应质量的前提下 , 最大化效率并减少推理过程中的能耗 。
此外 , 谷歌还通过推测性解码等技术 , 让小模型先行预测并交由大模型快速验证;蒸馏等技术则以更强能力的大模型作为教师模型 , 打造出更轻量高效的 serving 模型(如 Gemini Flash 与 Flash-Lite) 。
在硬件层面:十多年来 , 谷歌从零开始设计 TPU , 目标是实现每瓦性能的最大化 。 同时 , 谷歌还对 AI 模型与 TPU 进行协同设计 , 确保软件能充分发挥硬件优势 , 也让硬件在未来与 AI 软件配套时能够高效运行 。 谷歌最新一代的 TPU:Ironwood , 相比最早公开的 TPU 能效提升 30 倍 , 在推理任务中的能效也远远超过通用 CPU 。
软件层面: XLA 机器学习编译器、Pallas 内核以及 Pathways 系统 , 使得通过高级语言(如 JAX)编写的模型计算能够高效运行在 TPU 推理硬件上 。
超高效的数据中心:Google 的数据中心在行业中属于最为高效的一类 , 整个平台的平均 PUE(fleet-wide average)为 1.09 。
在冷却系统方面 , 谷歌也不断优化 , 在能耗、水耗与碳排之间实现本地化平衡 , 指导冷却方式选择 , 并在水资源紧张地区限制用水量 。
专家不太认可
尽管谷歌展示了其在提升单位效率方面的努力 , 但多位专家对该研究的方法论和结论的完整性提出了质疑 。
忽略间接水资源消耗
加州大学河滨分校副教授 Shaolei Ren 和 Digiconomist 创始人 Alex de Vries-Gao 指出 , 报告最大的遗漏之一是未计算「间接用水量」 。
谷歌的 0.26 毫升估算仅包括数据中心用于冷却服务器的直接用水 。 然而 , 为数据中心供电的发电厂(无论是天然气还是核电)本身在冷却和驱动涡轮机时也需要消耗大量水资源 。
De Vries-Gao 形容谷歌公布的数据「基本上只是冰山一角」 , 因为发电环节的用水量往往远超数据中心的直接消耗 。
碳排放核算不完整
专家们还指出 , 谷歌在碳排放方面仅分享了「基于市场」的测量方法 , 该方法允许公司通过购买可再生能源证书来抵消其碳排放 。 然而 , 这并未完全反映其对当地电网的实际影响 。
专家认为 , 谷歌应遵循国际公认的《温室气体核算体系》标准 , 同时纳入「基于地理位置」的碳排放数据 。 该指标能更真实地反映出数据中心运营所在地电网的清洁能源与化石能源组合所带来的实际排放量 。 Ren 教授表示:「这才是基本事实 。 」
误导性的数据比较
谷歌在报告中将其极低的水耗数据与 Ren 教授先前研究中高达 50 毫升的数据进行对比 , 称其结果「低了几个数量级」 。 Ren 教授认为这种比较是「驴唇不对马嘴」 , 因为他此前的研究包含了直接和间接的总用水量 , 而谷歌只计算了前者 。
【谷歌Gemini一次提示能耗≈看9秒电视,专家:别太信,有误导性】此外 , 谷歌使用了「中位数」来防止异常值扭曲结果 , 而以往研究多采用「平均值」 。 专家批评谷歌未能提供计算中位数的具体数据(如提示的词数或 token 数量) , 使得外部难以验证其结果的代表性 。
宏观视角下的「杰文斯悖论」
尽管单个 AI 提示的效率在不断提升 , 但专家们警告 , 这可能导致一个被称为「杰文斯悖论」的现象:效率的提高反而可能刺激更多的使用 , 从而导致总体的资源消耗和污染不降反增 。
这一担忧在谷歌自己的可持续发展报告中得到了印证 。 数据显示 , 随着公司大力发展 AI , 其「基于雄心的碳排放量」自 2019 年以来增长了 51% , 仅去年一年就增长了 11% 。
De Vries-Gao 直言:「如果你看看谷歌公布的总数据 , 情况其实非常糟糕 。 」 他认为 , 此次发布的 Gemini 效率报告「并没有说明故事的全貌」 。
对此你有什么看法呢?欢迎在评论区留言 。
参考链接:
https://cloud.google.com/blog/products/infrastructure/measuring-the-environmental-impact-of-ai-inference
https://www.theverge.com/report/763080/google-ai-gemini-water-energy-emissions-study

    推荐阅读