问题——一次问答为何会“用水”,而且不同说法相差悬殊?
近期,有关“大模型每回答一个问题要消耗多少水”的话题引发热议。
相关表述从“约0.3毫升”到“十几毫升”,甚至在特定条件下达到“上百毫升”,差异显著。
表面看是数字之争,实质涉及算力服务背后资源消耗的核算边界:究竟只算机房冷却的直接用水,还是把发电端的用水也纳入;究竟以小模型、短提示词为基准,还是以更常见的模型规模与更长文本请求进行估算。
口径不同,结论自然不同,但并不意味着其中必有“对”与“错”的简单对立。
原因——水从哪里来:直接冷却与隐性“电力用水”共同构成水足迹 从物理机制看,算力运转必然伴随热量产生。
与日常电子设备长时间高负载会发热类似,数据中心成千上万台服务器持续运行,单位机柜功率高,热密度大,散热是保障稳定运行的关键。
现实中,许多数据中心采用冷却塔、闭环水冷、蒸发冷却等方式,以水作为高效的“搬运热量介质”。
在这一过程中,一部分水会因蒸发而损失;循环水在长期使用后杂质浓度上升,需要排污并补充新水,以维持系统工况。
这构成了数据中心最直观、可见的耗水来源。
但更容易被忽视的是“电力水足迹”。
数据中心用电量高,而发电环节同样需要大量用水参与冷却、蒸汽循环等过程。
也就是说,即便机房本体直接取水不多,只要其电力来自高耗水的发电方式,综合用水仍可能偏高。
业内测算常以“每度电对应的用水量”作为折算基础:数据中心端的直接用水与发电端的用水叠加后,形成每次请求的综合耗水估算。
不同地区电源结构、冷却技术、气候条件差异明显,都会导致最终结果不同。
影响——算力需求增长与水资源约束的矛盾逐步显性化 对单次请求而言,无论是“1毫升级”还是“十几毫升级”,似乎都不显眼。
然而当用户规模、调用频次、模型能力和上下文长度同步增长,叠加效应不容低估。
尤其在水资源相对紧张地区,数据中心与工业、农业、居民用水之间的协调压力可能加大;在高温季节,冷却需求上升与区域用水紧张往往同向叠加,容易放大风险。
同时,信息披露不统一也会带来社会认知偏差:若只强调极低值而不说明适用条件,公众可能低估算力的资源代价;若只引用极高值而忽略特定场景与假设前提,又可能引发不必要的恐慌与误解。
更现实的挑战在于,随着推理、生成、检索增强等复杂应用普及,单次请求的耗电波动更大,单一数字难以覆盖全貌。
对策——以标准化核算与技术路径双轮驱动,推动“少水算力” 受访研究与行业实践显示,降低算力服务水足迹可从三方面发力。
其一,完善统计口径与信息披露。
建议明确区分“直接用水”(数据中心现场取水、蒸发、排污)与“间接用水”(电力生产环节用水),并按模型规模、提示词长度、调用类型给出区间值或典型值,提升可比性与透明度。
其二,优化冷却系统与用水管理。
推广高效换热、闭式循环、冷却水回用等节水型方案,提升循环水浓缩倍数与水处理能力,减少蒸发损失与排污量;因地制宜采用适合气候条件的冷却路线,降低高温时段用水峰值。
其三,推进低水耗电力与能效提升。
提高服务器能效、优化调度与负载管理,减少单位算力电耗;同时提升可再生能源占比,降低对高耗水发电方式的依赖。
对于水资源紧张地区的新建项目,应强化水资源论证与风险预案,推动“算力布局”与“水电条件”协同匹配。
前景——从“算力竞赛”走向“绿色算力”,水足迹将成为重要评价指标 可以预见,围绕算力基础设施的评价体系将更强调综合资源效率。
未来,水足迹可能与能耗、碳排放并列,成为衡量数据中心可持续性的重要指标之一。
与此同时,模型侧的效率提升、推理优化与压缩技术进步,有望降低“每次有效回答”的能耗与用水;行业也可能形成更统一的披露框架,减少概念混用与口径分裂。
需要指出的是,若进一步引入全生命周期视角,还应关注芯片制造所需超纯水、设备生产与运输、园区建设等环节的间接用水。
这将推动企业从“运行节水”延伸到“供应链节水”,把水资源管理前移到设计与采购阶段。
AI技术为人类带来了前所未有的便利,但其隐性的资源消耗提醒我们,任何技术进步都需要付出代价。
当我们享受AI便捷的同时,也应意识到每一次查询背后的水资源消耗,以及这种消耗对全球生态平衡的潜在影响。
只有将技术发展与资源可持续性紧密结合,才能确保AI产业的长期健康发展。
这既需要企业的主动担当,也需要全社会的共同关注与行动。