(报告出品方/作者:开源证券,诸海滨,赵昊)
1、思考一:什么是液冷数据中心?其重要性如何?
1.1、政策背景:国家政策指导全国新建大型、超大型数据中心平均PUE降到1.3以下、枢纽节点降到1.25以下
全球主要国家承诺最晚于年完成碳中和计划,数据中心绿色、低碳政策陆续出台实施。政府间气候变化委员会在年10月8日发布特别报告提出将全球变暖限制在1.5°C,需要在土地、能源、工业等方面加速转型,到年左右达到“净零”排放。切实到各国的数据中心的低碳政策,美国政府通过DCOI数据中心优化倡议等举措,以整合和关闭数据中心、设定数据中心PUE及服务器使用率具体标准等方式,实现了数据中心PUE从平均2.0以上下降到近一半大型数据中心达到1.5甚至1.4以下。
新加坡发布的《绿色数据中心技术路线图》提出提高冷却设备效率、IT设备温湿度耐受能力、数据中心的资源调度和负荷分配集成优化能力等建议。欧盟通过年欧盟数据中心能源效率行为准则的最佳实践指南和和欧洲数据中心能源效率现状白皮书进一步细化和规范了数据中心PUE、SUE、DCiE等绿色指标。
为推动行业规范和快速发展,国家工信部等部门相继发布数据中心指导政策。年11月,国家发改委联合网信办、工信部、能源局共同发布《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》,指出坚持集约化、绿色化、智能化建设,加快节能低碳技术的研发推广,支持技术创新和模式创新。全国新建大型、超大型数据中心平均电能利用效率降到1.3以下,国家枢纽节点进一步降到1.25以下,绿色低碳等级达到4A级以上。
1.2、概念解析:液冷技术在散热效率、适用功率等方面优于风冷,其中浸没式液冷可将平均PUE降至1.2以下
数据中心基础设施是支撑数据中心正常运行的各类系统的统称,具体包括制冷、配电、机柜、布线、监控等系统,是数据中心的组成部分之一。数据中心是用于在网络上传递、加速、展示、计算和储存数据信息的物理场所,主要应用于对数据计算和储存有较大需求的组织。一个完整的数据中心由IT设备和基础设施共同构成。数据中心可根据基础设施的标准机架数量进行划分。《工业和信息化部、发展改革委、国土资源部等关于数据中心建设布局的指导意见》文件中,将数据中心划分为超大型、大型、中小型三类。不同类型的数据中心机架规模不同,对应的基础设施解决方案也不相同。
数据中心基础设施可按照不同制冷方式进行划分风冷数据中心基础设施和液冷数据中心基础设施。风冷方式发展起步早,技术较为成熟,液冷方式是近几年由于数据中心对散热需求提升而出现的新方式,技术尚处于发展阶段。液冷方式又分为冷板式液冷和浸没式液冷两种,其中浸没式液冷方式可再细分为相变浸没式液冷和非相变浸没式液冷。
冷板式液冷为间接接触型,浸没式液冷为直接接触型。风冷是以空气作为冷媒,通过空气与发热部件接触换热实现散热的冷却方式。液冷是以液体作为冷媒的冷却方式,利用液体将数据中心IT设备内部元器件产生的热量传递到设备外,从而冷却IT设备。其中,冷板式液冷是一种间接接触型液冷,将冷板固定在散热对象上,液体在冷板内流动将设备热量传递带走,实现散热。浸没式液冷是一种直接接触型液冷,将服务器等有散热需求的IT设备完全浸没在冷却液中,通过液体的循环流动或相变进行冷却。
浸没式液冷可将数据中心PUE降低至1.2以下,优于风冷和冷板式液冷。对比不同制冷方式,浸没式液冷冷却液和发热设备充分接触,散热效率更高,可将数据中心PUE降低至1.2以下,运行更稳定,同时由于没有风扇,噪音更低,符合国家发改委对数据中心建设的政策指导目标,是未来数据中心基础设施建设的发展方向。两相浸没液冷的能耗低于单相浸没液冷。数据中心浸没式液冷技术的能耗主要由促使液体循环的泵和室外冷却设备产生,根据冷却液换热过程中是否发生相变可分为单相浸没式液冷与两相浸没式液冷。其中,两相浸没式的冷却液循环是无源的,因此两相浸没液冷的能耗一般要低于单相浸没液冷。由于浸没式液冷的室外侧通常是高温水,其室外冷却设备往往可以利用自然冷源且不受选址区域的限制,从而起到节能减排的目的。
1.3、典型应用:液冷技术商用条件逐渐成熟,国内外实践案例不断增多
随着液冷相关技术日益成熟,国内外已有多家企业开始面向客户提供针对不同散热需求下的液冷技术解决方案,一些科技公司也将基于液冷技术的散热系统部署于公司数据中心。阿里云作为国内领先的云服务提供商,是最早探索和实践大规模液冷方案的科技公司之一。年1月,阿里云宣布向全社会开放“浸没液冷数据中心技术规范”,年9月,仁和数据中心开服,采用服务器全浸没液冷等多项节能技术进行规划设计与建造,PUE低至1.09,相比传统风冷数据中心每年可节省万度电,该数据中心成为我国首座绿色等级达到5A级的液冷数据中心;年12月,阿里云发布磐久系列液冷一体机ImmersionDC,整体能耗可下降34.6%。
中科曙光面向人工智能、大数据等多种应用场景,推出硅立方液体相变冷却计算机。硅立方液体相变冷却计算机采用创新的浸没液冷技术,PUE低至1.04,节能效果显著。硅立方将服务器芯片、主板在内的所有计算部件浸没于液态冷媒中,将部件产生的热量通过相变换热的方式转移出设备,实现了高效散热。同时,硅立方一个机柜功率密度可达到kW,是传统风冷数据中心的4-5倍,能效比提升了30%。
马来西亚气象局数据中心为更好地捕捉局部强对流天气,满足三维播报所增加的27倍算力需求,配置了联想的冷板式液冷设备。在该系统中,水被送入服务器冷板,在组件周围循环,然后吸收热量离开冷板,进入冷源实现冷却。据测算,马来西亚气象局应用液冷系统后,散热效果高达90%,有力地支持了气象预测的精度提升。Facebook针对新加坡潮湿天气打造了Facebook新加坡亚洲数据中心。该数据中心采用StatePointLiquidCooling液冷系统,用水来降低气温,可以节约最高20%的用水量。Facebook还计划全部使用可持续能源来给整个数据中心供电。
在浸没式液冷解决方案的供给端,国内外均有企业在积极布局。例如,总部位于美国的GreenRevolutionCooling主要提供数据中心单相浸没式液冷解决方案,面向高性能计算、边缘数据中心、区块链和加密货币等场景提供具有完整冷却和电力基础设施的一站式模块化数据中心;总部位于荷兰的Asperitas采用自然对流驱动的单相浸没式液冷技术,其HPCzone系列产品可为各种高性能计算场景提供一站式解决方案。在国内,浪潮信息于年推出了小型可移动的浸没式液冷超算TSLC;中科曙光旗下的曙光数创推出了相变浸没式液冷配套解决方案C,能够将PUE值降到1.05以下。
随着边缘算力需求的提升,液冷技术应用场景将从云端扩展到边缘。终端算力需求的提升使得传统云算力逐渐下沉到边缘,边缘计算服务器功率密度及散热需求同步提升。为了降低数据中心制冷能耗,部分边缘数据中心也开始引入液冷边缘服务器,以提升边缘数据中心的能效水平。
2、思考二:液冷数据中心的现状、规模和增长逻辑如何?
2.1、产业现状:在我国高密度数据中心市场拥有更高增速,年30kW以上规模增速达31%
数据中心基础设施的发展依托于数据中心的发展。数据中心发展经历了三个发展阶段。第一阶段:第一代数据机房出现并发展,由于计算机以电子管和晶体管为主,体积大、散热需求高,催生精密机房专业空调等专业设备的出现。第二阶段:集成电路迅速发展,进入微型计算机时代,数据机房形态向中小型发展。第三阶段:互联网的兴起,5G、工业互联网、人工智能、云计算、大数据等技术和新应用的快速发展催生数据处理和储存的需求,数据机房逐渐向数据中心新形态演变。
全球视角。年全球功率超过10kW/柜的机架占比达到近30%。全球计算机算力日益增长,数据中心功率密度相应提升、平均机架功率也随之不断提升,根据UptimeInstituteIntelligence数据,年全球5-9kW/柜的机架占比最多,功率超过10kW/柜的机架占比达到近30%,单机架功率的提升与高密度服务器规模部署和应用具备较强相关性。当前,Intel、IBM、华为、浪潮、曙光等厂商陆续加速推进高密度服务器的产品设计与市场布局。全球数据中心市场以10%的CAGR稳定增长。全球数据中心市场规模由年的.5亿美元逐步增长至年的.3亿美元,市场增速保持在10%左右,据中国信通院预测,年全球规模有望接近亿美元。
我国视角在我国高密度数据中心市场规模拥有更高的增速,特别是30kW以上。近年来,国内数据中心建设进入高峰期,新建数据中心数量快速增长,功率密度逐年上升。根据《-年度中国数据中心基础设施产品市场总报告》,年单机柜功率在10kW以上的数据中心市场规模快速增长,增长率超过10%,其中30kW以上的高密度数据中心增长速度最快,达到31%。
预计到年底全国数据中心机架规模CAGR约20%。从产业规模上来看,数据中心的产业规模快速增长。根据中国信通院的数据显示,年,中国数据中心在用机架数量达到万架,较年增加超过万架。《新型数据中心发展三年行动计划(-年)》指出,到年底,全国数据中心机架规模年均增速保持在20%左右,预计到年,中国数据中心在用数量超过万架。数据中心机架数量的持续增长表明数据中心产业的整体规模不断扩大,同时反映数据中心基础设施产业不断发展。
我国数据中心及其基础设施市场规模保持较快增长趋势。根据中国信通院数据显示,年中国数据中心市场规模超过亿元,预计年中国数据中心市场规模突破亿元人民币,呈现较快的增长趋势。数据中心的产业规模的增长表明数据中心基础设施的市场规模也呈现快速增长的趋势。根据赛迪顾问数据,年我国数据中心基础设施的市场规模达.9亿元,预计到年达到.2亿元。
年度全国数据中心平均PUE为1.49。近年来,我国数据中心绿色发展进程日益加快,数据中心的能效水平不断提高,电源使用效率持续降低。年度全国数据中心平均PUE为1.49,并且有相当数量的数据中心PUE超过1.8甚至2.0(数据来源:CDCC),和国家《国家发展改革委等部关于严格能效约束推动重点领域节能降碳的若干意见》要求的到年数据中心PUE1.5的总体规划已经基本相当。但是随着超高密度数据中心的建设节奏加快,传统风冷已无法满足高性价比、低PUE的需求,因此改进数据中心制冷等基础设施技术,提高制冷效率,减少制冷系统的能耗水平,成为未来发展方向。
液冷数据中心基础设施市场接受度不断提高。伴随着液冷数据中心及其基础设施的逐步大规模商业应用,以及液冷技术的优势不断显现和传统观念的改变,液冷数据中心的市场接受度将不断提高,技术设施普及速度加快。液冷数据中心基础设施技术和性能不断优化。一方面,近几年国家政策支持液冷先进数据中心技术发展,各项文件鼓励企业开展新兴数据中心预制化、液冷等设施层技术开发,另一方面,液冷基础设施将不断向预制化、智能化、低碳化方向发展。
2.2、下游市场:互联网、金融和电信行业液冷应用前景较好
由于液冷技术具有高效制冷的特点,液冷数据中心及其基础设施主要应用于高性能计算机的领域,除了未公开披露的部分高性能计算机项目,液冷技术目前应用的行业主要有互联网、金融、电信、能源、生物、医疗等。年液冷数据中心主要运用在以超算为代表的应用中。其中,互联网、金融电信占比分别为20%、17%及15.5%。随着互联网、金融和电信行业业务量的快速增长,对数据中心液冷需求将会持续扩大。据赛迪顾问数据,预计年互联网行业液冷数据中心占比达到24%,金融行业达到25%,电信行业达到23%。
互联网行业的电商、社交平台、短视频等领域龙头企业较多,用户群体大,业务体量大,数据中心算力需求大,单机柜密度可达到10kW甚至更高,是目前液冷数据中心的核心客户。根据赛迪顾问数据,年互联网液冷数据中心市场规模为70.2亿元,预计年市场规模增长至.3亿元,年复合增长率达28.72%。随着金融行业信息系统的云化迁移和互联网金融产品的普及,金融行业敏捷响应、业务及时变更等需求增加,金融行业液冷数据中心算力需求进一步提升。根据赛迪数据,年金融液冷数据中心市场规模为59.6亿元,预计年市场规模增长至.6亿元,-年CAGR达33.18%。
电信行业紧抓综合信息服务需求日益云化的趋势,全面推进“云改”,液冷数据中心需求量快速增长。根据赛迪数据,年电信行业液冷数据中心市场规模为54.4亿元,预计年市场规模增长至亿元,-年CAGR达33.36%。
2.3、产业逻辑:单机柜功率快速增加背景下,液冷是风冷替代技术的代表,数据中心散热“革命”势在必行
预计到年全球数据中心平均功率达到25kW。数据量的大规模增长需要海量服务器以支撑大量的计算能力,受限于数据中心建设面积和环保规定,增加单机柜功率成为调和不断增长的算力需求和有限的数据中心承载能力的关键解决方案。据赛迪顾问预测,快速增长的数据中心算力将推动高功率单机柜快速普及,预计到年全球数据中心平均功率达到25kW。PUE=1.5的数据中心,27%来自制冷系统功耗。大量数据吞吐和运算使得作为新兴技术“大脑”的数据中心面临巨大的能耗和散热挑战。一方面,服务器等IT设备的计算、存储功耗庞大;另一方面,冷却数据中心IT设备的功耗也在快速增长。以一个PUE=1.5的数据中心为例,其中67%的电力消耗来自ICT设备功耗,27%来自制冷系统功耗,5%功耗由供配电损耗和1%由其他设备产生。
液冷技术是风冷替代技术的代表。随着数据中心业务量不断增加,导致冷负荷密度提升,传统空调系统面临散热不足、能耗严重的问题。针对传统空调系统的不足,业内对空调技术模式进行探索创新,通过一系列冷风替代技术解决高能耗问题,液冷技术则是其中代表。
液冷方式可满足2.7-30kW/机柜的数据中心散热需求。在数据中心制冷领域存在多种技术路径的实现制冷目的,根据《绿色数据中心白皮书》指出的不同密度数据中心对应的制冷方式,传统的风冷方式只能满足2.7kW/机柜的数据中心散热需求,已经无法完全满足数据中心日益增长的散热需求,数据中心制冷领域的技术出现了革新。目前,液冷技术凭借着高稳定性和高散热效能逐渐体现出优势,水冷/液冷方式可满足2.7-30kW/机柜的数据中心散热需求,能够解决超高热流密度的散热问题。
15kW/柜以上时,液冷技术更具经济性优势。除风冷技术和液冷技术之外,制冷设备节能技术还包括间接蒸发冷却等。综合应用端而言,15kW/柜以上时风冷技术成本上升,液冷技术显露其经济性优势。作为液冷目前主流的冷板式液冷和浸没式液冷,当前主要用于高功率密度型业务如HPC(HighPerformanceComputing,高性能计算)和人工智能计算,通常单机柜功率超过20kW。当前冷板式液冷主要应用于一般高密度的数据中心领域,而浸没式液冷目前主要集中应用于超高密度数据中心领域。
相比传统风冷技术,液冷技术的技术优势主要体现在一下几个方面:(1)更高的能源利用率。由于液体具有较高的导热率和比热容,更够更快地传导以及更有效地吸收热量,能够保障CPU在一定范围内进行超频工作不会出现过热故障,有效提升服务器的适用效率和稳定性。(2)更高的空间利用率。液冷数据中心省却空调系统和相应基础设施的建设,无需安装冷热通道封闭设施,更不需要架空地板,节省了大量的空间,从而能够在单位空间布置更多的服务器,提高数据中心运算效率。因此液冷技术比传统冷却方式具有更高的空间利用率。
(3)能够实现节能降噪。液冷技术去掉了风冷基础设施,只增加了循环泵,节省建设成本,液冷系统所使用的泵和冷却液系统与传统的空调系统相比噪声更小。因此采用液冷技术更够为数据中心实现节能、降噪。(4)无视海拔、地域的差异,同时余热可以创造经济价值。由于液体比热容不受海拔和气压影响,可以保持较高的散热效率,从而保证数据中心在高海拔的运行效率和性能。余热能够以液体为载体,通过热交换接入楼宇采暖系统和供水系统中,满足附近居民的供暖、温水供应等需求,为数据中心创造附加价值。
随着芯片技术与工艺的进步,服务器计算能力增长快速,但总体功耗也随之提升。预计到年,数据中心的x86CPU芯片TDP提升至W左右,ARMCPU芯片的TDP提升至W左右,而用于人工智能计算的NPU/GPU芯片会提升到W左右。同时期对应的典型服务器(2U高度2路处理器)功率也持续演进,x86CPU服务器会提升到W左右,ARMCPU服务器提升至W左右,用于人工智能计算的NPU/GPU服务器会提升到W左右。基于这些预测,年主流机柜功率预计会达到12~15kW/柜,未来会继续增加到25kW-50kW/柜,甚至更高(数据来源:国家信息中心等《“碳达峰、碳中和”背景下数据中心绿色高质量发展研究报告()》)。在此背景下,我们认为数据中心散热“革命”势在必行。
2.4、市场空间:预计年我国液冷数据中心基础设施市场规模达亿元
预计年中国液冷数据中心基础设施市场规模可达.3亿元。近年来,随着液冷数据中心技术设施商业化进程加快,以及市场需求高涨,液冷数据中心及基础设施市场规模将保持持续增长。据赛迪顾问预测,中国液冷数据中心市场规模预计由年的.9亿元增长至年的.2亿元,中国液冷数据中心基础设施市场规模预计由年的64.7亿元增长至年的.3亿元。
细分市场来看,预计浸没式液冷数据中心基础设施占比会持续扩大。年,冷板式液冷数据中心基础设施和浸没式液冷数据中心基础设施占比分别为82%、18%。冷板式液冷技术发展较早,目前冷板式液冷数据中心产品在市场上占比较高,但浸没式液冷是直接接触的制冷方式,相较于冷板式液冷,更大程度上利用液体的比热容特点,制冷效率更高,可以更有效降低数据中心PUE,未来浸没式液冷数据中心基础设施将会占据更多市场。据赛迪顾问预测,年,浸没式液冷数据中心基础设施占比预期提升至41%。
3、思考三:液冷数据中心的竞争格局以及各个公司的业务情况如何?
3.1、竞争格局:国外尚未形成龙头,国内液冷厂商领跑技术前沿
国外尚未形成龙头厂商,国内企业具有先发优势。液冷技术作为高新技术,覆盖多学科、多领域,技术壁垒高,目前国内外数据中心基础设施厂商液冷技术普及率尚较低,掌握该技术的企业较少。国际市场中,主要厂商在液冷技术和产品方面还处于实验或初步应用阶段,市场中尚未形成较强龙头,市场竞争格局未定,且由于中国数据安全保护政策,国外厂商产品进入中国较为困难。国内市场中,部分企业经过多年的技术积累和沉淀,已经展现出较为明显的技术优势和市场先发优势,未来行业内将会形成龙头厂商占据主要市场份额的竞争格局。
在高密度数据中心领域,曙光数创是国内最早实现冷板式液冷和浸没相变液冷技术大规模商用化部署的公司之一,阿里巴巴目前也已实现浸没单相液冷产品的部署;华为、浪潮目前实现商用的主要以冷板产品为主;广东合一、中国长城当前以喷淋式液冷产品为主。
3.2、曙光数创:浸没相变液冷领军企业,背靠国产算力龙头中科曙光
在数据中心基础设施产品方面,曙光数创自年即确立了冷板和浸没两个液冷技术路线,并相继研发形成了冷板液冷数据中心基础设施产品-C系列和浸没相变液冷数据中心基础设施产品-C系列。截至年7月31日,公司已取得91项专利和27项软件著作权,其中发明专利31项。冷板液冷数据中心基础设施产品-C系列:国内首款量产的冷板液冷数据中心基础设施产品及服务器冷板散热套件,采用风冷和液冷混合散热模式-服务器主要热源CPU利用液冷冷板进行冷却,其他热源仍采用风冷方式进行冷却,可使得数据中心PUE降至1.2以下,可以使得服务器满载运行CPU温度不高于60℃,比风冷降低约30℃。截止年,冷板产品已经迭代至第四代产品。
浸没相变液冷数据中心基础设施产品-C系列:公司于年首次实现C产品在国家级重大科研装置大规模部署,意味着数据中心行业全浸式液体相变冷却技术在全球范围内首次实现了大规模产品转化和部署。该系列产品具有高密度换热能力,最高可达到kW;机柜最大设计功耗大于kW,远超传统数据中心单机柜设计功耗;采用强化沸腾封装的方式,换热区域采用高密翅片来强化沸腾界面的沸腾换热,最高可实现W/c㎡以上的散热密度。目前C系列产品应用于多个国家重大科研装置,累计建设规模超过MW。
浸没式液冷产品业务规模逐年增长,毛利率维持高位。从收入结构来看,-年,公司C系列产品销售规模呈上升趋势,至年浸没式液冷产品创收3.33亿元,占总营收的82%。自年以后,公司C全浸式液冷系统的毛利率始终维持在40%以上的较高水平。公司下游客户主要为数据中心整体集成商和数据中心最终使用方,前两大客户信息并未披露。
3.3、浪潮信息:发布全栈液冷产品,天池投产实现了业界首次冷板式液
冷整机柜大批量交付年,浪潮将“AllIn液冷”纳入公司发展战略中,全栈布局液冷,实现服务器全产品线支撑液冷,并进一步升级液冷智算中心解决方案,实现数据中心PUE1.1。目前,浪潮信息已拥有多项液冷技术领域核心专利,并已参与制定数据中心液冷相关设计的技术标准和测试规范。年,浪潮信息发布全栈液冷产品,通用服务器、高密度服务器、整机柜服务器、AI服务器等四大系列均支持冷板式液冷,同时浪潮信息亚洲最大液冷数据中心研发生产基地-天池正式投产,年产能达到10万台,实现了业界首次冷板式液冷整机柜的大批量交付,整体交付周期在5-7天之内,助力数据中心绿色低碳发展。
浪潮信息液冷产品和解决方案已经在互联网、金融、教科研等领域得到广泛应用。如,浪潮信息与京东云联合推出天枢(ORSS)液冷整机柜服务器,已经在京东云数据中心实现规模化部署,为京东、双十一、虎年央视春晚红包互动等提供了基础算力保障,性能提升34%-56%,助力京东云数据中心降低PUE,实现低碳节能。
3.4、华为:FusionServerPro布局冷板全液冷系统,应用于数据中心高功耗密度服务器机柜部署场景
年,华为发布FusionServerPro全液冷系统解决方案,该智能服务器使用冷板式液冷,是面向IT设备高密部署,减少TCO投入,绿色节能,并有效提升运算效率的制冷解决方案,可以广泛应用于大学、公有云、企业等的计算业务。该方案采用密闭式全液冷机柜设计,全部的热量均由液冷带走,机房无需部署IT设备制冷空调。
应用在数据中心高功耗密度服务器机柜部署场景时,全液冷系统可以独立提供服务器在机房的散热,单个机柜可以集成3个E,单个E最多支持16个2P液冷计算节点。单个机柜最大支持65KW散热能力,解决采用传统风冷空调制冷部署困难的问题。且全液冷系统最高支持32℃供水温度,支持自然冷却,冷却PUE可最低至1.05,高能效属性明显。当前,华为全液冷系统的应用产品包括FusionServerProE融合架构刀片服务器、华为FusionServerProX0高密度服务器等。
3.5、阿里云:推出业内首款单相浸没液冷解决方案,实现创新散热技术与IT系统的完美融合
年12月22日,阿里云在“第十六届中国IDC产业年度大典”上正式向业界发布行业首款单相浸没液冷解决方案—磐久ImmersionDC,将绿色液冷技术与极致算力平台结合,实现基础设施散热能力和服务器、网络设备高效融合并整体交付,整体能耗可下降34.6%,助力低碳绿色数据中心构建。
区别于业界其他液冷解决方案,磐久ImmersionDC可同时实现高能效与高可靠性,数据中心整体可靠性等级接近T4(相当于国标A级)。液冷AI一体机可支持最大40PFlops算力并提供机柜间高达25.6T的AI互联网络带宽能力;液冷存储一体机可支持3.4P的超大存储能力。与传统数据中心散热产品多聚焦在基础设施风火水电不同,磐久液冷ImmersionDC系列最核心的是将基础设施散热能力和服务器设备、网络设备进行高效整合并融合在一起进行整体交付,且不受地域影响可在全球任何气象区域部署并可轻松实现极致PUE1.09。
3.6、英维克:Coolinside全链条液冷解决方案在超高算力场景完成商用
英维克的Coolinside全链条液冷解决方案,采用端到端全链条自主技术,不但高效节能,能够充分满足服务器高热密度散热需求,而且全面系统地实现一站式服务,打破国外技术壁垒,使大规模应用成为现实。目前,英维克全链条液冷解决方案已实现单机柜kW批量应用,完全液冷的冷板方案刷新最高热密度,并在超高算力场景完成商用。此外,英维克还有Coolinside浸没式液冷解决方案,主要针对高热密度、高功耗、安全兼容性等深入设计,以绝缘冷却液(可选:氟化液、矿物油、硅油)作为载冷剂对服务器进行直接冷却。
3.7、宁畅:中国区GPU以及加速服务器市场前二,携手NVIDIA推出业内首个全系统定制液冷方案
年年初,宁畅通过采用NVIDIA液冷HGXANVLink平台,推出XG45LP新系列液冷服务器,是业内首个全系统定制液冷方案。根据IDC发布的《下半年度(H2)中国加速计算服务器市场分析报告》,宁畅位列中国区GPU以及加速服务器市场第二名,核心团队在服务器领域有15年的相关经验,目前已取得了30余项液冷技术专利。宁畅的液冷服务器目前已经在北京、南京、哈尔滨、成都等城市部署了数万台。宁畅全系统定制液冷方案,可使PUE值降低至1.2以下,在散热方面,宁畅液冷服务器单芯片散热最高可达W,同时单机柜功率密度得到极大提升,节省空间达80%,噪音低于50分贝。
在国际权威AI性能测试MLPerf中,宁畅的服务器在MASKR-CNN和U-Net3D两项AI场景测试中,连续两年获得世界第一。除了MLPerf测试,宁畅的RG40服务器通过了TPCx-AI基准测试验证,这是国内首例。此前,RG40服务器也在SPEC(国际标准性能评测组织)的多个基准测试中获得9项世界第一。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
精选报告来源: