关键词:
储能新型储能
|
当前,作为AI算力基础设施的高性能数据中心,以及作为新型电力系统基础设施的储能系统,都面临一个共同的难题——散热。 传统的风冷技术已逼近其物理极限,而液冷温控技术凭借其高效、节能、精准的特性,正从可选项变为必选项,迎来历史性的市场机遇。 目前,数据中心和储能系统无疑是驱动全球液冷市场高速发展的两大核心引擎。在人工智能数据中心和新一代大型储能的双轮驱动下,液冷温控市场不仅增量空间广阔,其液冷技术方案也在向着更大制冷量的方向快速迭代。 在AI数据中心方面,随着AI芯片和机柜功率密度的飙升,对散热效率提出了近乎苛刻的要求,液冷机组成为刚需,产品功率从数十千瓦提升至数百千瓦,有部分厂商已发布10MW产品。 在储能领域,液冷技术直接由电芯大型化与系统容量升级所驱动,下一代6MWh+2小时储能系统的液冷温控方案将提升至75kW-80kW左右。 储能液冷: 大电芯驱动高功率温控升级 储能液冷系统的迭代,直接动力来自于电芯和系统升级。 2023年以来,在314Ah电芯、5MWh储能系统的带动下,主流温控方案逐渐从风冷向液冷转变。 基于优异的电芯性能和发热量控制,宁德时代5MWh储能系统采用45kW制冷量的液冷机组,其他多数5MWh储能系统采用的是60kW液冷温控机组,而主流工商业储能采用的是制冷量3kW-8kW液冷机组。 不过,海外地区、中小功率和成本敏感的场景中,仍有不少储能系统采用风冷温控方案。 今年下半年开始,随着宁德时代、远景动力、海辰储能等企业相继宣布500Ah+储能电芯陆续量产,采日能源、科陆电子等企业也陆续宣布500Ah+电芯配套6MWh+储能系统量产下线。 高工储能向英维克等企业采访了解到,在常规2小时充放电的场景下,因放电时长短、单位时间内热量集中,与之配套的温控系统也逐渐从45kW-60kW,提升至65kW-80kW。 而4小时储能系统由于放电时长延长,热量释放更平缓,且系统容量设计更适配长时运行特性,温控功率需求较小。 据了解,宁德时代基于587Ah电芯的6.25MWh储能系统采用了65kW制冷量的液冷机组。 海辰储能587Ah电芯配套的6.25MWh 2小时储能系统,采用75kW的液冷温控机组,而6.25MWh 4小时储能系统发热量会显著下降,采用35kW的液冷机组足矣。 随着长时储能市场崛起和应用场景分化,500Ah+储能大电芯并未“决出”一个主流的型号,不少业内人士表示,587Ah电芯的认可度相对更高,也有业内人士预测,未来大电芯市场不会由单一规格垄断。 除了电芯规格各异,新一代储能系统架构也出现颠覆性创新,包括阿特斯储能、Fluence、海博思创和特斯拉企业发布了模块化储能系统。 然而,不同规格的电芯、充放电功率和系统架构都会直接影响温控产品的尺寸设计与生产,若电芯规格分散,温控企业需针对不同型号开发多套产品方案,增加产品开发成本。 一位头部储能温控企业产品负责人向高工储能表示,从行业趋势来看,587Ah电芯配套6.25MWh系统需要的是75kW-80kW制冷量的液冷机组。 今年4月,英维克发布了6.X储能系统全链条液冷解决方案,该产品拥有高达90kW制冷量的同时,实现超薄机身,节省集装箱空间,且可集成自然冷源设计,支持配置XFreeCooling自然冷技术,具备高可靠的全场景适应能力。 同期,同飞股份与中车株洲所联合推出了80kW液冷温控机组,通过一体化设计架构与智能化控制逻辑,攻克了大型储能系统在极端环境适应性、能效比提升及噪音控制等领域的痛点。 海信网能也联合发布了适配6-7MW级大型储能系统的液冷温控方案,传统40kW级液冷机组跃升至80kW、90kW量级。 此外,华涧新能源发布了基于气浮离心压缩技术的80KW液冷机组,压缩机采用超高速气浮离心压缩机,其最高转速可达150000转/分钟。松芝海酷也在前段时间推出了面向7MWh顶出风80kW液冷机组。 此前2024年,TCL特种空调实现储能温控75KW液冷机组下线,黑盾股份推出了MC0802GE--80kW水冷液冷双系统机组。 12月9-11日,由高工储能、高工产业研究院(GGII)联合主办的2025高工储能年会将在深圳机场凯悦酒店举行,届时将发布《2025年全球AIDC储能行业蓝皮书》,探讨市场规模、技术路线、竞争格局、国际化合作、投融资趋势等战略议题。 数据中心液冷: 高密度算力下的能效革命 相比起储能温控机组,数据中心温控机组的制冷量升级更为显著。 当前,数据中心面临高功耗芯片发热量增大和能耗管控趋严的双重压力。 一方面,中国信息通信研究院产业与规划研究所发布的《中国液冷数据中心市场深度研究报告》,当单机柜功率密度<20KW,采用风冷可满足散热需求;单机柜功率≥20KW便需要采用液冷技术。 随着AI大模型训练、超算任务的规模化推进,数据中心单机架功率密度已从传统的5-10kW跃升至100kW甚至更高,英伟达下一代Rubin平台将推动单机架功率突破1MW。传统风冷因散热效率低、风机能耗高,已无法适配高功率场景。 另一方面,根据《数据中心绿色低碳发展专项行动计划》,到2025年,全国数据中心平均PUE需降至1.5以下,国家枢纽节点新建项目PUE≤1.2。传统风冷系统PUE通常在1.4-1.8,难以达标。 而液冷导热系数是空气的15-25倍,据英伟达测算,液冷数据中心的PUE可能达到1.15,远低于风冷PUE。 虽然液冷系统本身耗电量也较大,但其散热效率远优于风冷,可以让服务器在更好状态下运行,据英伟达介绍,液冷数据中心工作负载与风冷设备基本一直,但整体可以降低约30%的能耗。 华为董事、ICT BG CEO杨超斌在今年AIDC产业发展大会上表示:“随着AI算力规模与芯片功率的快速提升,液冷数据中心正成为必然选择。” 根据高工产研储能研究所(GGII)数据,2024年中国数据中心液冷温控市场规模约160亿元,较2023年显著增长,主要得益于AI算力需求爆发以及液冷技术在高密度数据中心的应用普及。 GGII预计未来3-5年,数据中心温控系统液冷渗透率有望提升至30%-40%,市场规模将持续扩大。到2030年,市场规模有望超千亿,成为数据中心温控的主流技术。 目前,数据中心液冷CDU(冷却分配单元)主要包括冷板式液冷、浸没式液冷和喷淋式液冷三大路线,其中,冷板式液冷仍占据主流地位,占比超过90%。 随着AI芯片功耗的指数级跃升,新一代的数据中心液冷机组功率正在显著提升。 作为国内温控龙头,英维克拥有丰富的CDU产品线,包括15-115kW机架式CDU(支持风液混合)、50-1800kW机柜式CDU(浸没式专用)、5MW集装箱式CDU(预装式数据中心) 申菱环境近年来也在大力拓展数据中心液冷市场,主要提供冷板式、浸没式等多种液冷散热系统和CDU产品,功率覆盖100kW-1.2MW。 作为工业温控专家,同飞股份产品线覆盖CDU、冷夜分配管、浸没液冷箱体、预制化管路等,功率覆盖20kW-800kW。 近期,LiquidStack、Johnson Controls、Nortek等国外企业相继发布了10MW以上可扩展的CDU,冷却容量覆盖广且设计灵活。 随着AI算力密度不断提升和储能电芯和系统容量升级,液冷技术已成为推动产业进阶的基石,成为支撑全球数字化与能源转型的隐形支柱。 |
下一篇:返回列表
储能中国网版权及免责声明:
1)储能中国网转载其他网站内容文字或图片,出于传递更多行业信息而非盈利之目的,同时本网站并不代表赞成其观点或证实其描述,内容仅供参考。版权归原网站、作者所有,若有侵权,请联系我们删除。
2)凡注明“来源-储能中国网” 的内容属储能中国网原创,转载需授权,转载应并注明“来源:储能中国网”。
本网站部分内容均由编辑从互联网收集整理,如果您发现不合适的内容,请联系我们进行处理,谢谢合作!
版权所有:储能中国网 备案信息:京ICP备2022014822号-1 投稿邮箱:cnnes2022@163.com
Copyright ©2010-2022