1 简介
数据是国家基础战略资源和重要生产要素。21世纪以来,随着信息技术(IT)的迅猛发展和物联网等大数据时代应用的快速增加,担负计算、存储、数据信息交互重任的数据中心的重要性日益凸显。数据中心作为我国新基建和“互联网+”战略的重要载体,是我国产业数字化、生活智能化、服务信息化转型的重要基石,支撑未来经济社会高质量发展。数据中心行业受到世界各国的重视,市场规模逐年扩大,投资并购活跃,竞争激烈。2021年全球数据中心市场规模超过679亿美元,预计2022年将达到746亿美元,年增长率约为10%。我国高度重视数据中心产业发展,大型/超大型数据中心得到发展,行业收入不断提升。图1显示了中国数据中心机架规模及其变化情况,截至2021年底,中国数据中心机架规模达到520万架,五年复合增长率超过30%。其中,大型数据中心机架规模达到420万架,占比80%。2021年,中国数据中心行业收入约1500.2亿元人民币,较2017年市场收入增长近3倍,年均增长率约为30% [1]。中国工业现代化的不断推进,催生出巨大的计算需求,市场前景广阔。传统行业和其他行业也在积极进行数字化转型升级,优化产业结构,为数据中心行业带来新的需求增长点。随着时间的推移,随着产业信息化的发展,数据中心行业将与越来越多的行业产生联系,有望最终成为支柱基础设施行业之一。
我国数据中心产业在经历了产业萌芽期、引导期后,已步入高速高质量发展的新阶段。随着数据中心计算流量容量的爆发式增长,传统数据中心网络越来越难以提供支持云计算、边缘计算等所需的低网络时延。为更好地满足数据处理需求、充分利用数据中心规模优势、降低业务部署和维护成本,大型、超大规模数据中心成为现代数据中心的首选。随着数据中心规模扩大、计算能力和功率密度提升,支撑IT设备运行的能耗也快速上升。数据计算、存储和交换的高能耗伴随着设备大量的产热,IT设备将99%以上的电能转化为热能,而70%的热能必须通过数据中心冷却系统去除[2],这进一步增加了数据中心的功耗。图2显示了近年来我国数据中心用电量情况,近5年来,数据中心用电量一直保持着15%以上的增速。 2020年,用电量超过2000亿千瓦时,占我国全社会用电量的2.7% [3],相当于排放2×108吨二氧化碳(折合为燃煤发电量)。大型数据中心制冷系统作为辅助设备,其耗电量与IT设备耗电量基本相同,因此制冷系统节能潜力巨大。数据中心制冷技术创新是实现整个行业绿色低碳发展的关键。
本文首先针对数据中心能耗高、散热难等亟待解决的挑战,总结目前已开发应用的各种数据中心冷却方法,讨论各种方法的原理和特点,并介绍数据中心行业冷却方法的发展趋势,对未来绿色节能数据中心的发展目标提出建议。
2 数据中心冷却技术需求分析
数据中心建设需要解决两大难题:能耗高、散热难。依托区域能源供应优势和自然环境优势,可以降低用电和制冷成本。因此,大型数据中心可以建设在能源充足、气温较低的西北、西南地区,既充分利用了自然环境,又降低了运营成本。但数据传输距离长,网络时延大,难以满足高精度导航、在线控制等边缘计算需求。在人口密集、经济发达的东部地区建设数据中心也是现实需求。在能源供应紧张、自然环境不利的现实条件下,解决能耗高、散热难瓶颈,发展绿色节能数据中心已成为业界共识。绿色节能数据中心必须兼顾产热量和散热效率,才能提高能效。新型制冷方式的开发和应用已成为我国数据中心节能绿色运营的重中之重。
2.1 IT设备冷却系统传热速率与产热速率的匹配
数据中心持续稳定运行是根本目标,而实现这一目标的关键是产热量与传热速率的匹配。随着单位服务器机柜内服务器数量的增多,机柜产热量也日益增大,对冷却系统的要求也不断提高。产热量可以通过机柜的功率密度来衡量,功率密度定义为单个机柜稳定运行时所消耗的能量,单位为kW/r,其中r代表单个机柜。机柜的功率密度越高,意味着其产热量越多,对冷却系统的传热速率要求就越高。数据中心服务器机柜功率从低密度向高密度发展是必然趋势,5kW/r以下为低功率密度机柜,5~10kW/r为中功率密度机柜,10kW/r以上为高功率密度机柜。目前在用的数据中心机柜功率密度一般为5~10kW/r,部分超大型数据中心在用的机柜功率密度在30kW/r以上,甚至接近100kW/r,这对传统的冷却方式提出了极大的挑战。
如图3 [4]所示,目前开发的冷却技术主要有风冷和液冷。风冷包括自然风冷和强迫风冷,适用机柜功率密度较低。液冷又可分为直接单相和直接双相液冷,冷却系统采用的冷却介质和方式不同,传热速率差别很大。传统风冷可冷却高达30kW/r的机柜,对于30kW/r以上的机柜采用风冷,产热与传热速率无法匹配,导致机柜温度不断上升,从而导致计算能力下降,并可能造成设备损坏。因此,对于大数据来说,在机柜功率密度快速提升的情况下,需要不断创新冷却系统和方式,提高传热速率。
2.2 能源效率低,需要绿色高效的制冷方法
散热需要消耗能量,因此提高传热速率必须考虑能源效率。衡量数据中心整体能耗水平的指标是电能使用效率(PUE),其定义为数据中心总能耗与IT设备能耗的比值。在相同IT功耗下,PUE越接近1,表明该数据中心与其他中心相比,非IT功耗更低,能源效率更高。如图4所示,数据中心总能耗由供配电、照明、制冷、IT设备等组成。如图5所示,目前我国数据中心能耗中约43%用于散热冷却(对应数据中心PUE大于2),冷却成本较高,节能潜力巨大[5]。
为提升我国数据中心能效水平,促进信息产业绿色发展,国家工信部发布《新建数据中心发展三年行动计划(2021-2023年)》,要求新建大型及以上数据中心PUE值须低于1.3。国家发改委发布《关于强化能效约束促进重点领域节能减碳的意见》,明确鼓励重点行业利用绿色数据中心等新型基础设施实现节能降耗,以国内外先进绿色数据中心能效水平作为技术改造目标,到2025年数据中心PUE值基本不超过1.5。
3 空冷技术发展现状
风冷是一种将冷空气输送到IT设备进行热交换的方式,在IT产业起步阶段发挥了重要作用。当时数据中心概念尚未明确,一般称为计算机房或机房。机房企业数量少,规模小,数据处理能力低,机柜功率密度约为1~2kW/r。风冷是当时最适合中小型数据中心的冷却方式[6]。当高功率密度的大型数据中心逐渐成为主流时,风冷方式虽仍能满足机柜功率密度在30kW/r以下的服务器的散热需求,但能效普遍较低,不符合IT产业绿色发展要求[7]。
根据气流来源,风冷可分为自然风冷和强制风冷。IT设备附近的空气被加热,温度升高,密度降低。热空气流向数据中心上方空间,形成压差,使冷空气自然流向IT设备。自然风冷风速低,对流传热不明显,冷却效果差,能源效率低。因此,这种冷却方式已被淘汰。
强制风冷是一种利用引风机将冷空气强制吹入IT设备的方法,是目前数据中心应用最为广泛的冷却方式。该方法通过增加IT设备散热面积或加快空气流速来实现良好的冷却效果。研究表明,采用合理的气流组织、智能通风、精准送风、智能热交换、空调循环、极化油添加剂、空调压缩机制冷剂控制等技术可以使强制风冷数据中心的能耗降低约20% [8]。根据风源不同,强制风冷主要包括空调和新风冷却两种方式。
3.1 空调制冷
空调制冷是通过空调对数据中心内部空气进行降温的方式,由于空调系统能耗较高,采用该方式的数据中心PUE一般在1.7以上[9]。空调制冷适应性强,维护简单,技术成熟,稳定性高,但制冷效率较低,仅适用于中小功率密度机柜,无法满足未来中大型数据中心的制冷需求。
3.2 新风冷却
新风制冷是指利用数据中心外部空气(新鲜空气)作为冷却介质的制冷方式。当数据中心内部温度高于外部环境时,外部冷空气可通过引风机直接输送到数据中心内,加热后的空气通过通道排出室外。这种方式比空调制冷可节能40%,但对空气质量条件敏感,需增加除尘过滤和除湿系统来控制空气质量。雅虎位于纽约Brockport的数据中心和Facebook位于俄勒冈州Prineville的数据中心均采用新风制冷散热,PUE可降至1.2以下。当前新风制冷技术发展迅速,如分布式气流制冷系统、吹吸式通风制冷系统等设计,可实现全年无空调的数据中心温度控制[ 10]。新风制冷数据中心对环境要求较高。在全年平均气温较低的温带或寒带地区,采用新风冷却可降低制冷成本。
4 液冷技术发展现状
风冷方式以空气为冷却介质,导热系数较低,而液体的导热系数比空气高一个数量级,理论上液冷可以大幅提高传热效率,满足高功率密度机柜的散热需求。结合2021年中国数据中心市场营收,液冷数据中心市场营收规模达450-500亿元,占比超过30%,未来发展空间巨大。
国内外在数据中心液冷方面已经积累了一定的研究基础并取得了一定进展,正在成为一项变革性技术。液冷方式可分为间接液冷、直接单相液冷、直接双相液冷三类。
4.1 间接液体冷却
间接液冷是利用热的良导体,使液体介质与发热部件间接接触,液体在流体通道中发生相变或非相变吸收热量,使发热部件降温的一种冷却方式。典型的间接液冷直流系统,是用蒸发器或液冷翅片[11]取代传统的风冷翅片,并增加冷却介质分配输送系统,冷却介质通过流体管道从数据中心外部连接到IT设备,与外部冷源进行热交换,降温后通过管道输送到数据中心内部进行冷却循环。由于电子芯片是主要的发热源,因此冷却介质一般采用间接冷却的方式对电子芯片进行冷却,其余部件如硬盘等则采用空气冷却[12]。目前,除了电子芯片外,还没有出现可以商业化实施的其他电子部件的间接冷却方案[13]。
间接液冷由于液体不与IT设备直接接触,因此液体介质的选择范围比较广,只需考虑导热系数是否符合技术要求以及与流体管路是否兼容即可。间接液冷又可分为冷板冷却和热管冷却。目前,冷板冷却时大部分液体介质不发生相变,而冷板冷却时会发生液体相变。
4.1.1 冷板冷却
冷板冷却是一种芯片级冷却方法。如图6所示,冷板冷却将金属冷板贴在电子芯片上,液体在冷板中流动。当芯片升温时,它们将热量传导到冷板。当液体流过冷板时,它会升温,利用其显热从芯片中带走热量,并通过管道与外部冷源进行热交换。水是用于此目的的最广泛使用的冷却介质。冷板冷却是液冷数据中心最广泛使用的冷却方法。它结合了液体和空气冷却。液体冷却用于芯片,而空气冷却用于其他电气元件,例如硬盘。然而,这并不是严格意义上的液体冷却[14]。与可以冷却机柜高达30 kW/r的空气冷却相比,冷板可以将机柜冷却到45 kW/r以下,更节能、噪音更小。它不需要昂贵的水冷机组,与纯液体冷却相比具有一定的优势[15]。腾讯采用冷板与IT设备微模块相结合的方式,打造液冷微模块数据中心,液冷模块PUE接近1.1,整体PUE为1.35。2019年,微软将一个装有864台服务器的数据中心舱体沉入海底,在密封舱体中通过管道泵入海水,通过间接热交换的方式对服务器进行降温,并进行降温性能测试。实验表明,海底数据中心的管理和建设成本均优于传统数据中心,水中IT设备故障率仅为陆地的八分之一。
4.1.2 热管冷却
热管散热是将热管元件加入IT设备中,利用热传导和液体相变的快速传热特性,将设备热量快速传导至外部的一种散热方式。液体在热管与发热部件接触的末端吸热发生相变,利用相变潜热吸收热量并转化为气态。气态介质利用压力差流向冷凝段,在冷凝段发生冷凝相变释放热量。冷凝液通过热管芯的毛细作用或重力作用流回蒸发段,循环传递被加热设备的热量。冷凝段随之冷却,通过空气或液体冷却进行热量交换[16]。热管的导热系数超过所有已知金属,冷却介质包括水、甲醇、丙酮、氨、二氯氟甲烷、水合二氧化硅等。冷凝段可采用水冷或空气冷却[17]。热管不与芯片的冷却介质连接管路相连,降低了IT设备内部冷却介质泄露的风险。另外,不需要使用泵,利用毛细管压力差带动两相冷却介质自循环运动产生热交换。由于冷却结构中没有运动部件,热管冷却系统的可靠性高[18]。热管冷却柜无需预留风冷对流空间,在提高机架功率密度的同时,还能达到良好的冷却效果、高效的设备散热、废热回收再利用[19]。清华大学基于环路热管技术,将多级环路热管应用于数据中心,在北京某数据中心开发改造的环路热管柜,与空调制冷相比,可节能41.6% [20]。由于热管的冷却能力相对于冷板而言并没有显著的提高,因此目前还不考虑用于数据中心的冷却。
4.2 直接单相液体冷却
直接单相液冷是一种采用不影响IT设备部件正常运行的绝缘液体与部件直接接触,并且液体不发生相变来带走热量的方法。
4.2.1 单相浸没式液冷
单相浸没式液冷是将IT设备浸没在装有冷却介质的密封槽中,设备中不需要运动部件,只需提前规划流体流道,冷却介质在设备中换热时不发生相变,冷却介质以显热带走热量,被加热的液体通过循环泵从槽中流出,进入冷却器降温后,再流回槽中循环换热。单相浸没式液冷原理比较简单,可适用于100kW/r以下的机柜。如图7所示,此方法的技术难点包括液冷材料的筛选和相应IT设备的设计。
对于直接单相液冷材料,需满足高绝缘性能、低粘度、高闪点或不燃性、低腐蚀性、高热稳定性、低生物毒性等性能要求。液冷材料可以是矿物油,也可以是氟化物,如全氟胺或全氟聚醚。如巨化集团公司的“巨芯”直接单相液冷材料已进入产业化阶段,其主要性能指标与国外垄断产品基本相同。该设备的设计与风冷不同,需要预留IT设备内部的液体流道,流道内不能含有与材料发生相互作用的化学成分。浸没式液冷柜没有密封的外壳,可以有效保护设备免受灰尘或硫化物的侵害,实现不停电热插拔,维护成本低。[12]但需要额外的维护程序,以防止冷却介质的损失,并去除渗入的空气和水分[21]。如图8所示,阿里云计算有限公司在杭州采用自主研发的液冷服务器集群,打造了全球最大的单相浸没式液冷数据中心(仁和数据中心),这是国内首个绿色评级5A的液冷数据中心,PUE低至1.09。在数据中心运行过程中,工程师选取了数千台液冷服务器与风冷服务器进行对比,从服务器各部件故障率来看,液冷服务器故障率下降了53% [22]。浸没式液冷将温度控制在产热极限以下,有效提升芯片效率。
4.2.2 单相喷雾液冷
单相喷雾是利用液体喷嘴将冷却介质喷洒在发热部件表面,液滴尺寸较大,不发生相变,液体在换热部件表面形成薄边界层,能局部产生较强的单对流换热效应,将显热用于散热[23]。冷却介质在与热源表面接触之前被雾化或分散成小液滴,此过程主要借助液体喷嘴的压力差进行[24]。广东合一新材料研究院有限公司开发了集中供给喷雾液冷服务器,将植物油喷洒在芯片上,全过程无相变,PUE小于约1.1。
喷雾冷却一旦提高喷嘴压力,冷却介质便会以高速喷出,产生射流冲击,冷却介质直接喷射到受热表面上后,以高速撞击表面,利用高速强制对流传热原理和短行程,在冲击区形成较薄的温度和速度边界层,产生较强的传热作用,结合气泡诱导流动混合和潜热传递,可实现较高的传热效率[25]。
单相喷雾为芯片级热交换,冷却效率高。由于在每个发热部件上都设置喷雾嘴技术难度较大,目前尚未应用于数据中心冷却系统。喷雾过程中液体接触高温热源时,会产生上浮、蒸发现象,雾滴和气体会沿着孔洞、缝隙散发到机箱外部,导致机房环境洁净度下降,并有可能对其他IT设备造成影响。因此喷雾液冷对机箱的密封性要求较高。
喷雾冷却还可与冷板冷却结合使用,将液体喷洒到冷板上进行间接热交换,替代IT设备内部的空气冷却。此方法技术难度低,目前已得到应用。SparyCool为美国陆军指挥所平台设计了喷雾间接热交换系统,提高了车载指挥平台的便捷性和拆卸性。通过这种方式,设备作为功能网络配置单元包装在单独的运输箱中,方便移动和静态操作。它只需要电源和网络连接,不需要重新配置和重新布线网络设备和硬件,适合移动操作[26]。
4.3 直接双相液冷
直接双相液冷有一个关键的创新,即利用介质相变潜热进行冷却,沸点一般在80℃以下。
4.3.1 双相浸没液冷却
如图9所示,双相浸没液体在冷却介质罐中与热源接触,在热源表面形成蒸汽气泡并上升至罐体上方区域,蒸汽在冷凝器中经过热交换后又转化回液体并流回罐体。相变传热涉及潜热传递、重力驱动的两相流和气泡诱导的流动混合[27]。此外,相变过程是在IT设备受热部位进行的,气泡的形成会影响冷却介质的后续传热,技术难度大,对冷却介质罐的密封质量要求高。为满足单相液冷直接冷却的要求,双相浸没液体冷却材料要求沸点较低,利用相变潜热在IT设备稳定运行范围内吸热。它可采用短链氟化物,如FC-72、Novec-649、HFE-7100或PF-5060等,可将芯片温度维持在85 ℃以下,保证芯片稳定运行[12]。蒸汽经冷凝器冷却后可利用重力返回水箱,无需提供额外循环电能,单柜功率密度可达110kW/r以上。如图10所示,2019年曙光信息产业股份有限公司发布“硅立方”高性能计算机,该计算机采用浸没式相变液冷,突破了单机能效水平极限,PUE达到1.04,彰显了液冷技术在高性能计算机中的优势,但在数据中心等计算机集群中的应用仍有待探索。
4.3.2 双相喷雾液冷
双相喷雾是在单相喷雾的基础上将冷却介质雾化成微小液滴在发热部件表面形成液膜,液体流动性不大,转化为蒸汽带走热量的冷却方式[28],其冷却效率是单相喷雾液冷的3倍以上[29]。双相喷雾液冷传热机理复杂,有研究者提出了薄膜蒸发、单对流、二次成核等机理,但尚无统一的传热模型,有待进一步研究[30]。双相喷雾冷却是目前已知的散热能力最强的方法,虽然能耗较高,但前景广阔,适用于功率密度大于140kW/r的机柜冷却,但尚未在数据中心实现商业化应用。双相喷雾系统的稳定性有待验证,喷嘴易堵塞,维护困难。该系统需要密封的蒸汽室和蒸汽回收装置,还必须考虑电子设备的可靠性等问题[27, 30]。
5 绿色节能数据中心冷却技术发展趋势
数据中心是互联网基础设施,其转型升级对我国社会现代化建设具有重要意义。绿色节能数据中心冷却技术的发展方向主要包括提高冷却系统效率、优化冷热流体通道、应用新型液冷材料、推广热回收系统等。
5.1 冷却系统效率提升
数据中心的制冷系统包括冷却塔、冷水机组、水泵、冷凝器、流体管道等设备。合理选择工艺条件和设备可以显著提高整体效率,从而提高能效比。使用高效的不间断电源、随着负载下降或季节变化灵活改变水泵和冷水机组的频率以及优化数据中心内部布局可以提高能源效率[31]。
5.2 冷热流体通道优化
冷热流体通道又称热通道冷通道(HACA)技术,最早应用于风冷数据中心。相邻机架的入口或出口相对,形成独立的冷热通道。将空调系统输入服务器的冷气与与IT设备热交换后的热气分开,分别输入或输出服务器的冷、热通道[32],从热力学角度提高了冷却介质的热交换效率。冷气通过冷通道输入服务器,与IT设备热交换后的热气通过热通道输出[32],冷热空气不混合,提高了热交换效率。保证冷热通道的密闭性还有助于减少约15%的空调风扇功率,节省能源[33]。HACA技术也可以作为未来液冷数据中心的参考。通过优化IT设备内部结构,形成冷却介质输入、输出的流体通道,避免不同温度的冷却介质混合,从热力学角度优化换热效率;其次,还可以增加冷却介质的湍流程度,使热边界层变薄,降低对流热阻。
5.3 新型液冷材料应用
与以空气为冷却介质的风冷数据中心不同,液冷数据中心的冷却介质种类多样,选择范围广,寻找与IT设备兼容、安全性高、传热性能优异的液冷材料是未来冷却技术发展的重要研究方向。液冷材料的选择需要综合考虑闪点、挥发性、生物毒性、导热系数、粘度、介电常数、腐蚀性等多种因素,液冷材料宏观性质的差异源于分子结构。通过模拟等手段筛选不同分子结构的液冷材料,建立完善液冷材料数据库,寻找有竞争力的低成本高性能液冷材料是数据中心由风冷、半风冷向液冷转型升级的基石。
5.4 热回收系统的推广
目前,大多数热回收技术是通过与冷却液流交换热量来捕获废热,废热的质量和数量取决于热管理系统的类型和大小。在高效的风冷数据中心,冷空气通常以25 ℃供应,与IT设备热交换后可升高到40 ℃ [34]。热空气通过吸收式制冷设备将热能转化为电能,实现热电联产,产生的电能可用于冷却水,从而节省电力[35]。采用冷板等液冷方式后,约60 ℃的进水温度即可维持IT设备芯片的工作温度在85 ℃,冷却介质经热交换后产生的热能质量更高,利用范围更广[36]。回收的废热可用于工厂或区域供热/热水生产、吸收冷却、有机朗肯循环、压电、热电、生物质燃料干燥、海水淡化/清洁水生产等[37]。通过分析不同类型的数据中心冷却技术并匹配相应的热回收系统,可以有效提高能源效率。
6 数据中心冷却技术发展展望
数据中心是数据的枢纽和应用载体,是现代基础设施的重要组成部分,是新型IT基础设施发展的基础和构建信息平台的重要前提,对推动数字经济发展具有基础支撑作用。然而,数据中心面临能耗高、散热难等复杂问题,绿色低碳发展面临重大挑战。随着数据中心向大型化、密集化发展,冷却技术必须适应变革转型,及时升级,淘汰能源浪费严重的老旧数据中心,建设新一代液冷绿色节能数据中心。实现数据中心冷却技术转型升级,有助于支撑国家“十四五”规划,推动IT产业清洁低碳发展,提升产业基础,实现产业链现代化,推动经济发展由粗放型向集约型转变,实现数字经济碳达峰、碳中和技术的突破。转型也能确保数字经济等战略性新兴产业的发展不受基础设施的制约,通过科技创新找寻新的经济增长点和合适的动力,对中国经济增长和社会稳定具有重要意义。
6.1 优化数据中心区域布局顶层设计,发展高效制冷技术
对于已有的数据中心,从原有的冷却形式改造为液冷的成本很高,因此有计划地新建液冷数据中心具有更大的经济优势。数据中心的使用寿命约为10年,冷却技术必须提前规划才能保持稳步上升的发展趋势。需要加强全国数据中心管理,优化顶层设计和统筹协调,提前布局,统一建设。可以将多个小型数据中心的建设需求整合为高功率密度的大型数据中心,以降低液冷成本,提高能源效率。全国的数据中心应统筹规划,考虑当地土地、能源技术等方面的独特优势。要有效实现降低液冷数据中心研发成本和建设成本,需要合理的产业布局、集约的资源配置和高度集中的组织结构。
6.2 突破关键技术,实现全产业链落地
我国液冷数据中心处于发展初期,影响液冷服务器大规模应用和推广的因素包括产业链不完整、设备采购和冷却介质成本高、采购渠道少、电子元器件兼容性差等[38]。绿色数据中心建设从规划到实施必须是一个系统工程,需要解决一系列技术难题,从液冷材料的筛选制备,到供配电系统优化降损,包括数据中心安全控制系统升级改造,都需要多学科的联合研究。要加大科研投入,从冷却材料到适配服务器各关键环节同步推进,组织区域科技创新综合体,重点突破共性、关键、关键技术,破解产业瓶颈,降低研发成本。此外,要牢牢把握创新发展主动权,使绿色数据中心设备能够实现自主研发、生产和建设,最终实现世界领先,将中国制造转化为中国创造,提升数据中心产业的核心竞争力。
6.3制定科学标准,引导数据中心冷却技术行业健康发展
应制定绿色数据中心产业标准,对IT设备、液冷材料、数据中心运维、供配电、安全、热控防护等制定统一规范,形成科学的有机体系,提高从研发到生产的效率。要确保现代散热降温材料、IT设备等研发环节顺利开展。合理整合不同行业的关键技术,及时转化为生产力。不同技术、不同行业之间的深度融合大有裨益。应优先实现行业科学管理、跨界融合示范项目、降低运维成本,促进数据中心市场有效发展。可以预见,未来数据中心行业将创造出新的应用场景和新的消费需求。
6.4 协同推进数据中心,完善产业布局
数据中心的地理分布决定了最合适的冷却技术应用方案,我国应实现风冷和液冷技术的协调发展。中西部地区电力充足,电价和地价低廉,全年平均气温较低,空气洁净,符合新风冷却环境的要求,适合在中西部地区建设新风冷却数据中心区,符合绿色节能数据中心的发展趋势。但由于空气导热系数低,无法冷却高功率密度的服务器。从冷却成本的角度考虑,在新风冷却数据中心应尽量少使用刀片等高可用、高密度的服务器平台。对于对网络时延和服务器类型有特殊要求的行业,如证券交易、高科技、金融或通信等,不建议通过中西部地区的新风数据中心进行数据处理,避免长距离数据传输。在华东地区大中城市建立数据中心需要综合考虑多方面因素,首先土地资源稀缺,成本高昂;其次人口密集,空调等噪音对居民正常生产生活影响较大;最后运维成本较高,如电价等。综合考虑这些因素,功率密度高、运行安静、位置灵活的液冷数据中心更适合东部地区。
6.5 聚焦清洁能源和余热利用
数据中心支撑着海量的数据存储,而计算本质上是一个能源密集型行业,要实现数据中心的碳减排和零碳排放目标,需要优化其能源供应结构。风能、光伏发电等可再生能源可以充分融入数据中心行业。虽然这类能源具有间歇性和不稳定性,但可以通过科学设计改善数据中心的电力结构,提高绿色电力的占比。同时,可再生能源的价格和可获得性相对平坦,使得数据中心受能源供应的影响较小。另外,数据中心在消耗电力的同时,会产生大量的低品位热能,数据中心产生的废热可以考虑二次利用,如为办公空间提供冬季热源,或与吸收式制冷技术结合,将废热转化为冷能进行回收利用。
从设计到生产
灏域为您提供
全产业链解决方案
开始我们的合作
+86 18600523371