当用户与AI模型进行交互时,看不见的水资源消耗正在进行。
近日有研究机构指出,热门AI模型每次"开口"回答问题,就要消耗超过一百毫升的水。
这一发现引发了业界对算力时代环境成本的深入思考。
水资源为何与AI产生关联?
这并非危言耸听,而是源于数据中心运维的客观需求。
AI系统的核心——由CPU和GPU组成的服务器集群在高速运转时会产生巨量热量,若不及时散热,设备将无法正常工作。
因此,散热冷却成为数据中心运营的必需环节,而水正是实现这一目标的重要介质。
从散热方式的演进看,业界已形成多层次的冷却方案。
风冷技术通过机箱风扇进行散热,效率相对较低;冷板降温通过间接接触传递热量,效率有所提升;浸没式液冷则将服务器直接浸泡在冷却液中,实现最高效率的热量移除。
这一递进式的技术方案,反映了数据中心在散热需求上的不断优化。
然而,尽管浸没式液冷技术效率最优,其推广仍面临多重障碍。
现有液冷介质主要分为两类:一类是合成油和矿物油,具有成本低廉的优势,但易燃易腐蚀,需频繁更换,且容易结垢影响信号传输;另一类是氟化液,性能指标全面领先,却因含有有毒有害的全氟和多氟烷基物质而面临环保争议。
这种性能与环保的两难困境,成为技术大规模应用的主要制约因素。
同时,国家层面对数据中心能效也提出了明确要求。
最新政策规定电源使用效率值不超过1.25,即每消耗的电力中,至少有80%应用于实际算力,其余20%则用于冷却等配套设施。
这一指标的设定,既体现了能源管理的科学性,也向行业传递了降低整体能耗的迫切需求。
从全球视角观察,AI的水耗问题具有鲜明的区域特征。
虽然水作为可循环资源,其总体环境影响小于电力消耗,但关键矛盾在于全球水资源分布的严重失衡。
国际学术期刊指出,在淡水短缺加剧、持续干旱蔓延的当下,需要深入调查和系统解决AI产业的水耗难题。
令人担忧的是,部分科技企业虽然提出"水资源中和"承诺,但其补水举措往往不在数据中心所在地实施,效果有限。
更为突出的问题在于,数据中心倾向于选址在地价低廉、电价便宜、监管相对宽松的区域,而这类地区多数本身就面临严重缺水困境。
随着AI产业的爆发式增长,全球数据中心数量持续增加,水资源消耗的规模化增长态势愈发明显,与农业灌溉、城市供水等基本民生需求的竞争日趋激烈。
业界专家认为,未来液冷技术的推广普及,将取决于能否在性能、成本与可持续性之间找到最优平衡点。
这需要材料科学、工程技术和政策制定等多个领域的协同突破。
同时,完善数据中心选址规划,建立更加科学的水资源评估体系,也成为当前的重要课题。
当算力成为新时代的生产力,其资源消耗模式正在重塑传统环保评估体系。
在"双碳"目标与数字经济发展的双重约束下,如何平衡技术创新与生态承载,将成为检验产业成熟度的关键标尺。
这不仅是技术攻关课题,更是关乎可持续发展的人类命题。