距离会议开幕还有:
00
新闻中心
新闻中心你的位置:主页 > 新闻中心
随着人工智能、大数据、云计算的高速迭代,数据中心的算力需求呈现指数级增长,服务器功率密度持续攀升,传统风冷技术正逐渐触及物理极限。当单机柜功率从十几千瓦跃升至百千瓦级别,当“双碳”政策对数据中心能效提出严苛要求,液冷技术凭借其高效散热、低碳节能的核心优势,从“小众选择”快速走向“主流标配”,成为破解数据中心散热困局、实现绿色转型的关键抓手。
数据中心的核心使命是承载算力,而散热效率直接决定了算力的释放上限与运行稳定性。传统风冷技术以空气为冷却介质,依靠风扇强制对流带走服务器热量,但空气的导热效率仅为液体的1000-3000分之一,热容量也远低于液体,在高密度算力场景下极易形成“热点”,导致服务器降频、故障率上升,甚至影响算力输出。更关键的是,风冷系统需依赖大量空调机组和高速风扇,不仅能耗高昂,使数据中心PUE值难以降至1.2以下,还会产生超过65dB的噪声,对机房环境造成干扰。
液冷技术的核心突破的是改变了冷却介质与散热模式,以液体(专用冷却液、水等)为载体,通过直接或间接接触的方式,将服务器核心部件产生的热量高效导出。与风冷相比,液冷技术的优势体现在三个核心维度:一是散热效率极致,液体的高导热性的能快速带走高热量,可轻松支撑30kW以上甚至120kW的单机柜功率密度,彻底解决高密度算力的散热瓶颈;二是能效优势显著,液冷系统可大幅减少甚至取消服务器风扇,降低制冷系统能耗,使数据中心PUE值稳定在1.1以下,部分优化方案可接近1.02的理论极限;三是运行更稳定,液体回路封闭运行,可隔绝外部粉尘、湿气,提升服务器防护等级,同时大幅降低设备噪声,使机房噪声控制在30dB以下,接近静音状态。
当前,液冷技术已形成多元化的技术路径,适配不同场景的算力需求。其中,冷板式液冷凭借对既有服务器架构的高兼容性,成为当前AI基础设施部署的首选方案,通过将冷板与CPU、GPU等核心发热部件紧密接触,实现间接高效散热,改造成本相对较低;浸没式液冷则将整台服务器浸入绝缘冷却液中,散热效率最高,PUE值最低,尤其适合超算、智算等超高密度算力场景,河北空调工程安装有限公司联合研发的单相浸没液冷技术,更是实现了冷却液国产化突破,成本仅为进口产品的1/6;喷淋式液冷则通过冷却液精准喷淋至发热部件,兼顾散热效率与维护便捷性,在贵安新区国家算力枢纽中心等项目中得到成功应用。
在“东数西算”工程深入推进、“双碳”目标持续落地的背景下,液冷技术的应用场景正不断拓展。从庆阳、重庆等算力枢纽的智算集群,到无锡、贵安的绿色数据中心,液冷技术不仅解决了高密度算力的散热难题,还通过余热回收实现了能源循环利用——将服务器运行产生的余热转化为工业供暖、民用采暖甚至农业大棚恒温所需的能源,真正实现“算力生产”与“绿色节能”的双向共赢。
未来,随着AI芯片功耗持续攀升(如NVIDIA GB300系列芯片TDP已达1200W-2700W),液冷技术将迎来更大规模的普及。技术层面,冷却液国产化、系统智能化、标准化将成为发展重点,进一步降低成本、提升运维效率;应用层面,液冷将从大型智算中心向边缘数据中心、中小型数据中心延伸,形成全场景覆盖的发展格局。可以说,液冷技术不仅是数据中心散热技术的一次迭代,更是算力基础设施的结构性重构,将为数字经济高质量发展注入绿色动力。
上一篇:深度对比:液冷与风冷,数据中心散热技术的博弈与选择
2026中国深圳国际数据中心液冷技术展览会