(报告出品方/作者:中银证券,杨思睿、王晓莲)
双碳与算力刚需之下,液冷为IDC散热必经之路
IDC是能耗大户,衡量数据中心能耗的PUE指标日趋严格
数据中心规模迅速增长,超大型数据中心成热门。据中国通信院数据,近年我国数据中心规模稳步增长,按照标准机架2.5KW统计,年我国数据中心机架规模将达到万架,近五年CAGR超过30%。其中,大型以上数据中心增长更为迅速,年底规模达万架,占比达81%。同时,超大型数据中心逐渐占据主流,据赛迪研究院估计,年超大型数据中心服务器占比将升至50%以上,全球来看美国占据主要份额,我国超大型数据中心数量占比约为10.2%。
市场规模快速增长,基础设施市场空间同样可观。据中国信通院数据,年中国数据中心市场规模超过亿元,预计年中国数据中心市场规模到突破亿元人民币,呈现较快的增长趋势。数据中心的产业规模的增长表明数据中心基础设施的市场规模也呈现快速增长的趋势。据赛迪顾问,年我国数据中心基础设施的市场规模达.9亿元,预计到年达到.2亿元。
IDC为能耗大户,其中散热能耗占比超40%。据工信部公布,年我国数据中心耗电量为2,亿kwh,占社会总耗电量的2.6%,相当于1.3个上海市的总社会用电量。据通信院公布,我国IDC电费占TCO(整体运营支出)的60-70%。据赛迪统计,年中国IDC能耗中,43%用于IT设备散热,基本与45%的IT设备自身能耗持平,可见减少散热从而控制TCO是节能减耗的核心方向。传统数据中心的PUE仍有较大改进空间。数据中心能耗指标PUE(PowerUsageEfficiency)是指数据中心消耗的所有能源与IT负载消耗的能源之比,PUE=1最为理想,意味着所有能耗都用于服务器设备运转,无其他开销。据CDCC报告,全国数据中心PUE平均水平为1.49,传统风冷数据中心PUE在1.5~1.8(1kW的服务器正常运转需1.5~1.8kW电量),与国家要求年达到平均1.3以下还有较大的差距。
政策明确要求PUE进一步改善。国家层面,年11月发改委等部门发布《深入开展公共机构绿色低碳引领行动促进碳达峰实施方案》明确提出新建大型、超大型数据中心PUE低于1.3,年12月发改委及能源局发布《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》明确要求到年全国新建大型、超大型数据中心PUE低于1.3,国家枢纽节点低于1.25。
芯片能耗密度高企,风冷逐渐乏力,液冷势在必行
芯片散热效率要求快速提高,风冷无法满足IDC快速增长的散热需求。AMD、Intel、NVIDIA等主要芯片制造商在逐步提高芯片的散热设计功耗TDP(ThermalDesignPower)以提供更高的性能。同时,GPU功率密度普遍远高于CPU,这也意味着GPU的散热需求高于CPU。AMD方表示在年之前高性能GPU的TDP将达W,此外,以云游戏为代表的主流HPC已达到1kW/U的功率密度,赛迪研究院预测年全球数据中心单机柜平均功率将达到25KW,这对目前传统风冷技术均是十分严峻的挑战。目前风冷技术的极限值基本是在W-W之间,远不能承担未来发展所需的散热功耗。未来,液冷是解决高算力IDC散热的必选。据英特尔,第三代至强可扩展处理器正在催化液冷技术步入元年时代。液冷技术具备高效制冷效果,有效提升服务器的使用效率和稳定性。液冷可以从一个占地面积只有20mmx30mm的处理器中移除高达W的热能。液体传导热能效果和大比热容能够保障芯片在一定范围内的超频工作不会出现过热故障。此外,液冷服务器可以排除海拔、地域和气温的差距,保证运行效率和性能,具备规模化应用的优势。
液冷市场开始进入拐点,将具备显著爆发力
液冷是高密度IDC能耗优化的重要技术,走向规模量产阶段
IDC最具革命性的节能技术为液冷技术(又称水冷),其中浸没式液冷技术可以将PUE降到1.2以下,联合其他技术可使PUE趋近于1。液冷是数据中心制冷技术不断革新的必然结果,据浪潮信息,液体导热能力是空气的25倍,同体积液体带走热量是同体积空气的近0倍,在耗电量方面,液冷系统约比风冷系统节省电量30~50%。液冷技术从小规模验证走向大规模量产阶段,同时进入标准化阶段。年12月25日,腾讯、华为等参与起草的我国首批数据中心液冷系列行业标准正式发布,将于年4月1日起正式实施,行业标准的出台将有利于行业的有序发展。英特尔中国数据中心合作伙伴技术峰会上,英特尔与产业链上下游共同打造《绿色数据中心创新实践——冷板液冷系统设计参考》。数据中心液冷技术研讨会上中国电子节能技术协会秘书长表示,无论从政策角度、市场需求还是技术成熟度来讲,均标志着数据中心进入‘液冷时代’。
双碳达标潜台词,液冷应用将在B/G端需求中普遍化
液冷散热明确成为趋势:(1)受产业政策的影响,PUE1.25成为东数西算枢纽节点新建数据中心基本要求,京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏8个算力网络国家枢纽节点均设立了明确的PUE标准,大力推进数据中心做到绿色节能、低碳减排。(2)主流数据中心单机柜功耗越来越大,国产芯片因制程和技术原因散热甚于国外产品,散热需求更大,液冷散热逐渐成为趋势。此外,北上广深等土地、水电资源相对紧张的一线城市也设立了严格标准。年7月,长三角示范区(江苏省、浙江省、上海市)出台《关于在长三角生态绿色一体化发展示范区加快数字经济发展推进先行先试的若干举措》,明确要求新建大型、超大型数据中心PUE不超过1.25。年5月,北京市发改委发布《北京市低效数据中心综合治理工作方案》,对PUE超过1.4的IDC实施差别电价,逐步关闭年均PUE高于2.0的数据中心。
行业需求明确,业务快速增长。据赛迪研究院调研,年液冷IDC主要用在超算等行业,互联网、金融和电信行业业务量在快速增长,预计年互联网行业液冷数据中心占比达24.0%,金融行业为25.0%、电信行业23.0%、能源行业10.5%,生物、医疗和政务等行业需求将加快融入通用数据中心新业态。此外,通信行业也在快速布局,年中国移动研究院发布了业界首款面向泛在算力的边缘一体化液冷服务器,推动液冷散热技术在通信方面的应用。产业已在快速跟进。中国首座绿色等级达5A级的液冷数据中心——阿里巴巴杭州首座数据中心仁和于年落成,是全球规模最大的全浸没式液冷数据中心,采用了服务器全浸没液冷、高压直流HVDC、供配电分布式冗余、智能Al优化算法等多项节能技术进行规划设计与建造,PUE低至1.09。与此同时,字节跳动等互联网龙头也在跟进中。
渗透率快速提升,年市场规模将达亿
商业模式合理,经济账帮客户有效节约能源开支。以单机房为例,台服务器总功率为KW,液冷方案比传统风冷方案可省电30%,新投入液冷的建设成本有提升,整体节约的运行成本随着使用年限的增长逐步增加,整体来看三年和五年的项目成本液冷较风冷减少7%和12%。同样,对于更大规模的机房和数据中心,规模效应可以进一步体现,液冷明显比风冷更节能、更划算。
市场规模可观,增速远高于传统服务器领域。IDC市场调研显示,全球的服务器市场定制化产品采购量份额已经达到30%以上。据赛迪研究院保守测算,年中国液冷数据中心的市场规模为亿元,乐观估计为亿元,年我国液冷数据中心的市场规模将破亿元,行业增速保持在30%左右。渗透率陆续提升,有望迎来爆发拐点。液冷数据中心将加速替代传统风冷数据中心,据赛迪研究院总结观点,年液冷替代比例为20%,往后替代率逐步上升,年有望实现25%的技术替换。
三条技术分支,冷板式较成熟,浸没式前景较好
液冷服务器有三种方式:冷板式、喷淋式、浸没式:(1)冷板式:将液冷冷板固定在服务器的主要发热器件上,依靠流经冷板的液体将热量带走达到散热目的。(2)浸没式:将发热元件直接浸没在冷却液中,通过冷却液循环带走服务器等设备运行产生的热量(分为单相、两相、直抵芯片)。(3)喷淋式:在机箱顶部储液和开孔,根据发热体位臵和发热量大小不同,让冷却液对发热体进行喷淋,达到设备冷却的目的。
目前冷板式技术成熟,领衔商用落地。据前瞻产业研究院数据,年我国液冷数据中心技术主要以冷板式为主,占比超过80%,浸没式占比不足20%。冷板式液冷技术发展较早,目前冷板式液冷数据中心产品在市场上占比较高,未来浸没式技术逐渐成熟,有望成为主流。浸没式液冷是数据中心的跃迁式技术创新,相较于冷板式液冷能更大程度上利用液体的比热容特点,制冷效率更高,具有高能效、高密度、高可用和高可靠等特性,未来浸没式液冷数据中心基础设施将会占据更多市场。据赛迪研究院,浸没式液冷突破技术瓶颈,可以使单机柜功率密度提升3倍以上,到年占比将超过40%。
存在技术门槛,核心挑战是高精密性、防漏、自主可控
目前仍存在技术门槛与挑战:(1)液冷板微通道齿间距是0.1mm量级(风冷是毫米级别),设计、加工需要考虑流道和流阻更精准;水冷板和固定板形成一体化,需要保证不漏液。(2)每一台液冷服务器都有一个进水管路和出水管路,至少配四个插头,属于高精密的快接插头部件(以往多用于航天、高铁等精密领域)。(3)改造液冷数据中心涉及到楼体改造、空间重布等环节,增加了施工难度。自主知识产权仍有待提高。国外企业起步较早,目前占据主要产权地位,但国内已基本具备可比性。
行业机会向产业链多方延伸
产业链逐渐成型,上中下游均可受益
液冷行业上游主要为产品零部件,包括接头、CDU、电磁阀、TANK、maniflod等。中游主要为液冷服务器,包括四个主要类型的服务器,以及闭式循环和非闭式循环服务器。此外还包括数据中心的集成运维设施、产品及部件,从冷板部件到机柜,再到数据中心液冷集成模块。服务器及相关集成产品主要用于为下游行业在云计算、人工智能及物联网等方面提供服务。国内下游行业主要包括互联网、金融、电信、政府、交通和能源等信息化程度相对较高的行业,涵盖智慧计算、电子政务、企业信息化、关键应用以及民生等相关领域,包括三大电信运营商,以及腾讯、阿里巴巴等互联网大型企业。
据赛迪研究院,年中科曙光、华为、阿里和联想位于我国液冷中心市场领导者地位,年格局预计有所变动,浪潮信息或进入领导者象限。
产业链环节之服务器厂商:受益最为直接
受益于液冷需求带动,服务器行业迎来新的更新驱动因素,带动重回高景气周期。产品方面,液冷相关产品售价、利润率优于传统风冷技术产品,可以给客户带来明确、可观的效益。行业具有较高的进入壁垒,先进入者具备先发优势。(1)技术壁垒。液冷数据中心基础设施产品的研发和制造涉及冷却技术、制冷系统设计及仿真技术、温湿度解耦控制算法等多项技术领域,要求企业具备成熟、深入的技术积累。(2)专业人才壁垒。液冷数据中心基础设施领域属于新兴技术密集型产业,产品性能涉及材料化学、热力学、电子学、计算机科学等多种学科技术成果,并且因数据中心复杂多样,相应的制冷系统存在定制化特征,因此对研发技术人员的技术研发能力和行业经验要求较高。(3)客户认证壁垒。出于安全性、稳定性等考虑,企业客户在选择液冷数据中心基础设施供应商时通常需要进行严格的资质验证。另一方面,客户在与液冷数据中心基础设施供应商建立生产配套关系后,倾向于维持与现有技术供应商的合作,不会轻易更换主要供应商,因此先进入者具有先发优势。
总结以上,我们认为目前率先布局液冷技术的服务器厂商具有显著的先发优势,将率先受益。我们梳理了布局液冷服务器的厂商及其主要产品,如下:
1、浪潮信息:全栈布局液冷,实现业界首次大批量交付
年浪潮提出AllIn液冷全栈布局液冷,实现服务器全产品线支撑液冷,并进一步升级液冷智算中心解决方案,实现数据中心PUE1.1。目前,浪潮信息已拥有多项液冷技术领域核心专利,并已参与制定与发布10余项冷板式液冷、浸没式液冷相关设计技术标准,同时联合牵头立项及撰写冷板式液冷核心技术的4项标准。年浪潮信息发布全栈液冷产品,通用服务器、高密度服务器、整机柜服务器、AI服务器等四大系列均支持冷板式液冷,同时浪潮信息亚洲最大液冷数据中心研发生产基地天池正式投产,年产能达到10万台,实现了业界首次冷板式液冷整机柜的大批量交付,整体交付周期在5-7天之内,助力数据中心绿色低碳发展。浪潮信息液冷产品和解决方案已经在互联网、金融、教科研等领域得到广泛应用。浪潮信息与京东云联合推出天枢(ORS0S)液冷整机柜服务器,数据中心部署总体能耗降低40%以上,散热效率提升50%,性能提升34%-56%,已经在京东云数据中心实现规模化部署。
2、曙光数创:浸没相变液冷领导者
浸没相变液冷技术为核心竞争力。公司主要现有产品按照技术路径可以分为浸没相变液冷数据中心基础设施产品、冷板液冷数据中心基础设施产品以及模块化数据中心三大类。公司浸没相变液冷技术具有超强散热效能、可实现超高密度部署和极低PUE特征,提供核心竞争力。冷板液冷数据中心采用液冷为主、风冷为辅的混合冷却模式,降低冷却系统消耗,增强服务器可靠性。公司的浸没相变液冷技术解决了传统冷却技术存在的功耗墙问题,同时具有极佳的节能效果,此外大幅降低了芯片核温,实现服务器内温度场均匀分布,提高了系统可靠性。其C系列时能够使得高功率密度数据中心PUE降至1.05~1.2,年C系列首次大规模商业化部署,标志着数据中心行业全浸式液体相变冷却技术在国内首次实现了大规模产品转化和部署。从营收结构来看,年-H1公司浸没相变液冷收入占总营收比重分别为79.74%、69.78%、81.63%、75.75%,年收入同比高增42.15%至3.33亿元。此外,浸没液冷产品毛利率保持40%以上水平。
3、宁畅:人工智能和液冷服务器领跑,推出全系统定制液冷
年初,宁畅联手NVIDIA等合作伙伴率先推出了新系列液冷服务器,通过采用NVIDIA液冷HGXANVLink平台,推出XG45LP新系列液冷服务器。宁畅通过采用NVIDIA液冷HGXANVLink平台,推出XG45LP新系列液冷服务器,单芯片散热最高可达W,同时单机柜功率密度得到极大提升,节省空间达80%,噪音低于50分贝。GPU和液冷服务器领跑MLPerf,支持更多场景应用。9月国际权威AI性能基准测试平台MLPerf公布最新测试成绩,宁畅人工智能服务器XG40和GPU液冷服务器XG45LP两款核心产品性能登顶,共斩获13项第一。本次测试还覆盖多种典型的AI模型,包括ResNet(图像分类)、3D-UNet99(图像分割)、Rnnt(语音辨识)、RetinaNet(目标检测)、Bert-99(自然语言处理)等,更加贴近实际应用情况。
全系统定制液冷方案积累深厚,已有验证。在高效液冷服务器的基础上,公司进一步推出业内首个全系统定制液冷方案,实现从需求梳理、架构设计、机房部署到运维服务的全系统定制。经过15年的研发积累,上千项液冷可靠性测试,以及数万节点部署考验,宁畅液冷解决方案现已兼备高效散热、高密部署、更低噪音等优点,可实现系统自动补液等智能化管理,可帮助PUE降低至1.2以下。截至目前,公司已拥有30余项液冷专利,重点突破了第三代冷板式液冷技术,其定制液冷方案在北京、哈尔滨、成都等多地实现数万台部署。根据IDC发布的《下半年度(H2)中国加速计算服务器市场分析报告》,宁畅位列中国区GPU以及加速服务器市场第二名。公司战略发展目标为年实现在中国区X86架构定制服务器市场占有率超过50%。
4、华为:率先布局单项液冷板系统
年推出FusionServer高密专用液冷系统,采用了单相液冷板的制冷方案,单柜功率密度可以做到45kW/rack。载冷剂采用去离子水+BTA缓蚀剂,支持的最高进水温度达到45℃,达到了DLC标准的W4液冷等级。以北京气候为例(全年最大极端湿球温度是31.5℃),可以通过冷却塔实现全年自然冷却,机房PUE理论上可以降至1.1。此外,由于简化了制冷系统,因此提高了制冷系统的MTBF(平均无故障工作时间)。年华为云松山湖数据中心采用全预制模块化、高密度、高性能液冷集群。
5、中国长城:专注喷淋式液冷
年发布国内首台喷淋液冷服务器。是一款具有完全自主知识产权、致力于攻克服务器件精准散热难题的新型服务器,目前已成功应用于教育、移动通信、大数据等10个行业,并参与了国家重点实验室5G云计算喷淋液冷平台项目的建设。
6、网宿科技:专注液冷数据中心解决方案
公司子公司绿色云图自年成立起即开展浸没式液冷技术的研发、产品及解决方案的输出,是国内浸没式液冷技术研发的先行者。目前,已推出微型液冷数据中心解决方案、中大型数据中心解决方案、集装箱数据中心解决方案以及定制化液冷解决方案等一系列液冷数据中心解决方案,并成功应用于高校、媒体、互联网企业等多个业务场景。网宿绿色云图直接浸没式液冷技术可将散热能耗降低90%-95%、IT设备能耗降低10%-20%,实现PUE均值低至1.,创下了国内数据中心能耗纪录。年公司IDC及液冷产品收入2.46亿元,毛利率24.92%。
7、阿里云:领先单相浸没液冷解决方案
年底,公司发布单相浸没液冷解决方案—磐久液冷一体机ImmersionDC0系列,包括液冷A一体机、液冷计算一体机、液冷存储一体机,具备三大特点:(1)超融合,传统的产品就是一台服务器、交换机,而ImmersionDC0系列最核心的是将基础设施散热能力和IT设备、网络设备和服务器进行高效整合,融合在一起进行整体交付。(2)超强算力,包括AI40P,存储3.4P的超强能力,还有25.6TAI互联带宽端口能力,高存储、高带宽,未来可支撑至少三代技术迭代,资源利用率提升50%。(3)可在全球仁和气象区域部署,实现极致PUE1.09。
8、紫光股份(新华三):布局液冷解决方案
年,公司已经在RG2机架服务器上做了冷板预研,在节能技术的配合下,项目PUE实测值在1.08-1.17之间。此外,公司在B刀片服务器节点中做了预研,实测单节点功耗较风冷节省49.85W,CPU温度降低23℃(WCPU),PUE实测值在1.2左右。公司参与了多个数据中心的建设,包括大量的液冷数据中心机房,组建了定制化的团队,创建了液冷研发实验室,为客户提供端到端的液冷解决方案。
产业链环节之材料器件商:价值量高,受益较多
除服务器厂商以外,产业链上游材料和器件厂商也有望相应受益。主要包括流体连接器(液体冷却快速插拔接头)、冷媒、CDU、电磁阀、TANK、manifold等。(1)流体连接器(液体冷却快速拔插接头):通常是指液冷循环系统中各器件之间的连接件,它能实现各器件之间的快速连接和断开且无泄漏,提高效率,减少排液注液带来的不必要的工作量。主要应用于流体连接,可在带压状态下自由插拔且无泄漏。(2)冷媒:冷却液,可用冷媒包括水、矿物油、电子氟化液等。(3)CDU(CoolingDispensingUnit,冷却液分配单元):主要由机箱、水泵、板换、阀、膨胀罐以及管路等等组成,通过板换进行热量交换,把冷却的液体送到热源处吸收热量,带着热量的液体再进入板换进行换热处理,循环换热。(4)电磁阀:一般安装在连接的管道上控制冷媒流通。(5)TANK:用于安装服务器/交换机的浸没式箱体,通过tank内的冷却介质直接对交换机进行散热。(6)Manifold:分集水器,用于连接各路加热管供回水的配、集水装臵,按进、回水方式不同分为分水器和集水器。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
精选报告来源:。