摘要:当前传统的风冷技术难以满足数据中心发展需求,液冷技术成为数据中心节能降耗的核心技术路径。从2024年起,液冷方案将在数据中心冷却方案逐渐替代风冷方案。
当前全球液冷景气度加速超预期,海外CSP大厂资本开支提升,算力需求持续旺盛。
随着数据中心算力提升以及芯片功耗增加,液冷作为高效散热方式需求高速增长。
芯片端液冷设计是机柜级液冷前置条件,英伟达端芯片层面目前已支持液冷架构。
除了在机柜侧以外,液冷在ASIC和交换机等环节加速渗透。
国内厂商在液冷全产业链核心环节液冷板、CDU、Manifold、水泵等各大细分环节迎来全面竞争机遇。
在之前的文章中我们梳理了算力产业链核心赛道全解析、AIDC数据中心电源全梳理、算力核心赛道:数据中心冷却系统全解析
❤关注+点赞❤
数据中心基础设施主要包括制冷、配电、机柜、布线、监控等系统,其中制冷是数据中心的核心环节之一。
数据中心的散热技术经历了从风冷、水冷到液冷的迭代升级。
当前传统的风冷技术难以满足数据中心发展需求,液冷技术成为数据中心节能降耗的核心技术路径。从2024年起,液冷方案将在数据中心冷却方案逐渐替代风冷方案。
液冷技术通过冷却液体替代传统空气散热,液体与服务器高效热交换,提高效率,挖潜自然冷源,降低PUE,是一种新型制冷解决方案。
其核心优势在于散热效率高、能耗低、噪音小,适用于高密度计算场景。
随着算力需求猛增,我国在推动绿色算力发展方面强调液冷技术的全面适配。液冷技术被纳入绿色算力强制标准,并作为提升算力能效、降低碳排放的核心手段之一。
液冷交付和产品形态
液冷交付和产品形态包括液冷服务器、机柜级和整体解决方案交付三种。
当前整机柜产品形态驱动液冷渗透率加速提升,微软目前所有地区数据中心支持液冷;英伟达GB200/GB300 NVL72为液冷机柜;Meta的MTIA T-V1芯片将采用液冷散热,T-V2将引入170kW超大功率机架。
而数据中心除GPU/CPU外,交换机、电源、内存等部分也存在散热需求。
例如,光模块总功耗大于GPU、耐高温能力较GPU更弱,往后看随着交换机传输速率提升到1.6T,全液冷将成为交换机冷却的更优选择。
海外英伟达在GTC大会上展出的Rubin机架采用100%液冷方案,此外ASIC芯片采用液冷也将成为趋势,
目前两大主流液冷技术路线是冷板式液冷和浸没式液冷。
冷板式液冷:冷却液通过冷板(导热金属板)间接吸收CPU、GPU等核心部件热量,不直接接触电子元件。该路线技术路径相对清晰,具有较高的商用成熟度,尤其利于算力中心机房的改造,已成为当前绝对主导的液冷解决方案。当前已接近风冷服务器(溢价约10%-15%),规模化应用后有望进一步降低。
浸没式液冷:服务器主板完全浸没在绝缘冷却液中,通过液体循环或相变(液态→气态→液态)带走热量。应用成熟度不及冷板式,且维护成本较高;不过在节能和可靠性方面表现更优,且占用空间也更小,并且更具散热效率方面的优势,有望成为未来数据中心散热技术的重要发展方向。随着3M氟化液国产化,单相液冷成本有望下降30%。
从全球视角看无论是服务器液冷还是IDC液冷,均需要国内产能规模支持,国内液冷行业参与者增多推动技术加快成熟。
❤关注+点赞❤
液冷服务器产业链分为上游零部件、中游制造集成/液冷服务器商和下游应用三大环节。
核心环节包括液冷散热模块、冷却液及循环设备,服务器整机、硬件以及机箱、电源、线缆等成本占比相对较小但是必要的部件。
液冷核心零部件图示:
资料来源:华泰研究、行行查
❤关注+点赞❤
液冷板
散热模块中的核心部件,直接接触处理器等发热元件,通过内部微通道循环冷却液实现高效换热。
从英伟达GB200到GB300,预计Socket方案将带动整柜价值量提升,其中冷板、快接头价值量变化最大:预计冷板用量将由GB200的45片提升至GB300的108片,快接头将由GB200的108对提升至GB300的216对。Socket方案带来冷板和快接头用量大幅提升,需要引入新供应商。
液冷板材料为铝、铜为主,加工工艺复杂需微通道蚀刻技术(密度达500μm级),且成本占比较大。参与厂商主要包括中铝、紫金矿业等铝、铜金属原材料企业。
中游为银邦股份(铝热传输材料)、华锋铝业、格朗吉斯等铝热传输材料生产企业以及瑞泰克(液冷板加工)、方盛股份、精研科技、三花智控、飞荣达、银轮股份、纳百川、东阳光等液冷板配套加工公司。
CDU冷却分配单元
CDU冷却分配单元连接室内外冷却系统,集成水泵、控制器、换热器等,实现智能温控与流量调节。
包含水泵、控制器和整体解决方案。
水泵环节:中金环境子公司南方泵业生产的CHL、CHM、CHLF水泵,广泛应用于数据中心液冷模块中、飞龙股份数据液冷中心产品在芜湖飞龙、郑州飞龙已建有专门生产线,多个液冷项目进行中;利欧股份全资子公司利欧泵业拥有多款适用于液冷系统的泵产品,包括高效节能的离心泵和智能泵系统等。
控制器:相关布局厂商包括立讯精密、曙光数创、英飞特等。
此外维谛技术、英维克、申菱环境、高澜股份、曙光数创、网宿科技旗下绿色云图、同飞股份、佳力图、依米康等厂商在液冷领域也拥有多款CDU产品。例如,英维克CDU支持液冷系统PUE低至1.09,高效可靠。维谛技术为Meta GB200 CDU组装提供约10%-15%市场份额。
液冷产业链图示:
资料来源:行行查
管路与接头
管路与接头主要连接各部件,确保冷却液无泄漏循环,技术方面要求耐高压(≥0.35MPa)、耐高温(-40℃至125℃)、漏液率
全球市场格局来看,目前北美占据快速接头市场主要份额,国内企业近年加速突破跻身UQD市场。
据Cognitive Market Research数据显示,北美地区在快速接头市场中占据了主要份额,其次是欧洲,而亚太地区的市场份额相对较小。快速接头的主要玩家主要包括Parker、Eaton、Staubli、Festo 等公司。
目前国内具备液冷快接头产品的生产能力的公司有:英维克、中航光电、川环科技、强瑞技术、高澜股份等企业。
英维克液冷快速连接器在数据中心液冷领域的应用已形成系列化,包括自锁和盲插等11个系列;中航光电液冷快速连接器UQD系列以钢珠锁紧技术为特色,专为数据中心机架服务器与分水器间的连接而设计;川环科技针对液冷服务器客户开发软管+接头总成方案,管路通过UL认证,适配英伟达GB300高压循环系统。
❤关注+点赞❤
作为热量传输的媒介,将冷板吸收的热量带走,传递给系统的其他部分进行散热。
其成本相对较低,但品质对系统稳定运行十分重要。
公开资料显示,该环节相关布局厂商中,新安股份已开发完成浸没式硅油冷却液产品,对标国际厂商产品,目前正在几家服务器的集成商进行测试,其子公司崇耀科技改性硅油产销均创新高,已与PPG、三棵树、浙江仙鹤、等细分领域头部客户深入合作;巨化股份子公司浙江创氟高科生产的JX浸没式冷却液,为单相浸没式数据中心冷却液,用于替代数据中心作为计算、存储、信息交互场所传统的散热方式。
工作过程没有水的消耗,通过管内走液体管外走自然风来冷却管内液体,来降低管内液体温度以达到冷却的目的。干冷器可以和其他液冷组件配合,实现高效的散热效果。相关厂商包括维谛技术、四方科技、英维克、申菱环境、鑫巨等。例如,四方科技研制的V型干冷器用于数据中心液冷的外部换热。
❤关注+点赞❤
液冷环节中如服务器电源、机箱和电缆等其他关键部件支撑系统稳定运行。
服务器电源
电源高频化设计适配液冷环境,转换效率突破96%。
AI服务器的核心处理器包括 CPU、GPU、NPU、 ASIC、FPGA 等,相比于传统的普通服务器,AI服务器的功率高出将近6-8倍,电源的需求也将同步提升6-8倍。
通用型服务器通常只需要2颗800W服务器电源,而AI服务器的电源需求为4颗1800W高功率电源,服务器能耗成本从3100元直接飙升到12400元, 约为 3 倍。
目前台资企业占据了全球电源显著的市场份额,约为 5%-80%。据MTC数据显 示,在全世界前16大电源厂商中,中国台湾地区厂商占据了7席,其中,台达电子位居首位,市占率约为69%;光宝科技紧随其后排名第二,市占率约为15%-20%。中国大陆企业中,麦格米特、欧陆通、科华数据、中恒电气、科泰电源、科士达、通合科技、爱科赛博、同洲电子、盛弘电子、新雷能、科威尔以及BBU电源亿纬锂能和蔚蓝锂芯等众多厂商均有布局。
机箱与线缆
液冷服务器需通过机箱实现高度密封性(通常要求IP68标准),防止冷却液泄漏导致设备短路或损坏。例如,中石科技为服务器厂商提供的热模组核心零部件,其机箱设计可完全隔绝液体与电子元件接触;硕贝德机箱设计同步推进,目标适配GB300等高功率芯片。
模块化设计使机箱能适配不同厂商的液冷散热模块如冷板,降低系统集成难度。
液冷环境要求线缆耐温范围扩展至-40℃至125℃,以适应冷却液循环过程中的极端温度变化。例如,远东电缆为冬奥会超充站提供的液冷大功率充电线缆,可在极寒环境下稳定工作。
整体来看,海外大厂资本开支预期提升,向下推演终端算力需求旺盛,向上推演机柜算力高密度化带来功耗提升,液冷技术渗透成为市场共识。
随着液冷趋势加速,各环节入局者众多,依米康、川润股份、光迅科技、网宿科技、拓维信息、华勤技术、中鼎股份、朗威股份等众多厂商在各领域都有参与布局。第三方专业温控厂商英维克、申菱环境和高澜股份等已有多个项目成功落地。第三方IDC服务商包括万国数据、世纪互联、光环新网、数据港、秦淮数据、润泽科技、宝信软件、奥飞数据、大位科技、网宿科技等也是液冷的产业链的重要参与者。
随着液冷渗透率有望加速提升,同时交换机、电源、内存等环节配置液冷也将逐渐形成趋势。在多方催化共举背景下,液冷有望加速迎来国产替代机遇。
来源:走进科技生活