8-17凉床盼夜雨,谁复启空调?
(2025-08-26 14:30:32)
凉床盼夜雨,谁复启空调?
液冷服务器是个啥东东?它源于算力需求的爆发式增长与能耗瓶颈的尖锐矛盾,乃技术迭代与产业升级的必然趋势。2024年全球大公司将大量资金投向算力,比如Meta的AI投入350亿美元,算力需术急涨带来能耗一系列问题。英伟世的H100 gpu单卡功耗达700瓦,Blackwell的架构B200芯片组功耗突破1200W。CPU+Gpu协同的AI服务器单机柜功率密度从传统的15KW飚升到50 kw(部分超算到100Kw),风冷散热效率已逼近物理界限。传统风冷数据中心PUE(能源使用效率)普遍在1.5以上(40%的能耗用于散热),国家东数西算政策要求新建数据中心pue≤1.5。解决这一矛盾,顺应产业政策的发展要求,液冷技术应孕发展,可将PUE降至1.05-1.1,破解能耗困局。液冷渗透率从2023年<10%猛增到2025年预期40%(Omdia数据)。液冷系统初始投资比风冷高30%,但3~5年TCO(总拥有成本)反超:按1000柜数据中心,0.8元/度电费计算,电费节省约2亿元。芯片温度每降10度,故障率下降50%。冷却CPU gpu的冷板式液冷规模化商业应用。单相浸没如3M氟化液,相变浸没如GRC技术加速落地。在技术路径选择上,到底是冷板式还是浸没式成为技术主流,还需看技术迭代的结果……
液冷服务器是算力密度进化倒逼散热革命的当下现象,在AI与碳中和的双驱动下,技术进步与技术生态的双重布局需慎终追远……
液冷服务器是个啥东东?它源于算力需求的爆发式增长与能耗瓶颈的尖锐矛盾,乃技术迭代与产业升级的必然趋势。2024年全球大公司将大量资金投向算力,比如Meta的AI投入350亿美元,算力需术急涨带来能耗一系列问题。英伟世的H100 gpu单卡功耗达700瓦,Blackwell的架构B200芯片组功耗突破1200W。CPU+Gpu协同的AI服务器单机柜功率密度从传统的15KW飚升到50 kw(部分超算到100Kw),风冷散热效率已逼近物理界限。传统风冷数据中心PUE(能源使用效率)普遍在1.5以上(40%的能耗用于散热),国家东数西算政策要求新建数据中心pue≤1.5。解决这一矛盾,顺应产业政策的发展要求,液冷技术应孕发展,可将PUE降至1.05-1.1,破解能耗困局。液冷渗透率从2023年<10%猛增到2025年预期40%(Omdia数据)。液冷系统初始投资比风冷高30%,但3~5年TCO(总拥有成本)反超:按1000柜数据中心,0.8元/度电费计算,电费节省约2亿元。芯片温度每降10度,故障率下降50%。冷却CPU gpu的冷板式液冷规模化商业应用。单相浸没如3M氟化液,相变浸没如GRC技术加速落地。在技术路径选择上,到底是冷板式还是浸没式成为技术主流,还需看技术迭代的结果……
液冷服务器是算力密度进化倒逼散热革命的当下现象,在AI与碳中和的双驱动下,技术进步与技术生态的双重布局需慎终追远……
前一篇:8-16玄枢叩天工,雪极自从容
后一篇:9-18若有娲皇问?新生补天人!