先进的数据中心冷却方法

大数据
现代数据中心的不断发展演变导致了其能源消耗需求的不断增加,这反过来又需要更好的冷却技术和方案。当前市场上已经有了一系列新的冷却技术和方案了,但是,无论是密封遏制、液体浸泡或绝热,选择一款适合您企业数据中心特定业务需求的冷却技术解决方案才是最有必要的。

现代数据中心的不断发展演变导致了其能源消耗需求的不断增加,这反过来又需要更好的冷却技术和方案。而数据中心运营商们对于冷却成本的控制也是至关重要的,故而他们需要选择恰当的方法来平衡冷却效率和冷却支出。在本文中,我们将为广大读者诸君介绍关于现代数据中心冷却技术的合理的关注点,指出潜在的解决方案,并推荐新的技术——液浸冷却、行内或机架内空气冷却,以及气流建模和密封遏制——而所有这些新的技术都应有助于减轻您数据中心的冷却规划任务。

当前市场上已经有了一系列新的冷却技术和方案了,但是,无论是密封遏制、液体浸泡或绝热,选择一款适合您企业数据中心特定业务需求的冷却技术解决方案才是最有必要的。

[[182401]]

当选择冷却技术解决方案时花时间进行冷静的思考

数据中心冷却散热可能不是会IT专业人员们广泛的讨论兴趣的一个话题。但是,如果处理不当的话,其可能造成成本代价昂贵的错误。而如果不采取必要的预防措施或者如果太长时间依赖过时的冷却技术的话,或将造成您数据中心的服务器能耗的显著增加。而由于能源需求的增加,能源使用量也相应显著增加,数据中心冷却的重要性也在不断提升。

选择正确的冷却技术和方案并非易事,并且其需要在申请相关的资金预算之前进行彻底的审查和规划。无论是对旧设备的翻新改造还是完全的升级,数据中心管理人员需要能够随着时间的推移看到投资回报率,但只有当他们花时间来检查所有潜在的备选方案时,才能看到。

在本文的第一部分中,数据中心专家Robert McFarlane将为我们介绍当前市场上可用的最佳冷却技术和方案。他概述了涉及每种类型的冷却技术方案相关的潜在好处和可能的关注点,无论其是对旧的技术理念的修订或是一套全新的方法。

接下来,来自TechTarget网站的高级技术编辑Stephen Bigelow将为我们介绍如何通过机架设计来限制数据中心的能源使用。他还讨论了如何消除数据中心中的热点和其他相关区域的问题。

数据中心的现代冷却方法

冷却的关键性,再加上当今高密度的机柜所产生的高热水平,已经扩展了传统常规数据中心冷却的限制。数据中心的冷却可以并且应该使用最新的技术和方案来得到增强。一些最新和最有效的技术方案是非常先进的,而其他一些技术方案仍然存在其固有的缺陷。

数据中心管理人员需要了解所有这些方法,以便他们可以为他们的数据中心选择最佳的冷却技术方案。

老的密封遏制的方法仍然有效

密封遏制(containment)的方法其实是热通道/冷通道概念的延伸。机架行的两端被门或塑料帘幕堵住,以进一步防止空气混合。如果门封闭了热通道,其被称为热通道密封。如果其包围封闭了冷通道,那就是冷通道密封。

如果只有热通道或冷通道的端部被阻塞,那么其是部分的密封遏制。如果屏障安装在过道上,或从机柜顶部到天花板,这将构成完全密封遏制。

据称,部分密封遏制的效率可达完全密封遏制效率的80%,这两者都有助于提高新建和现有数据中心的制冷和能源效率。

在现有的数据中心操作空间,主要的关注问题是防火。完全密封遏制可以防止水份的分散蒸发或抑制气体的流通,这是相当危险且非法的。解决这一问题有三种方案:在热通道和冷通道中安装喷淋头或惰性气体喷头;可在探测到烟雾时降下竖立屏障;或采用部分的密封遏制。每种类型的方案都各有其利弊,但全美国所有的数据中心操作都必须符合NFPA-75防火标准,特别是当使用降下屏障时。

由于冷却通常是除计算设备本身之外最大的电力资源消耗者,因此,数据中心操作运营人员应考虑某种形式的密封遏制。

热轮和绝热冷却提高效率的冷却

热轮(heat wheel)是大型的,缓慢旋转的装置,具有多个空气室。一半的轮子在户外,当轮子转动时,室外的冷空气被输送到数据中心内部。而内部的热空气则被输送到户外。在其旋转期间这些复杂的轮子作为热交换器,并带来只有少量的外部空气。轮子转动所需的能量很小,并且其在大多数气候条件下都是有效的。在所有的“免费冷却”形式中(即:使用环境空气而非机械制冷来冷却),热轮可能位列能效清单列表的顶部。

绝热冷却( Adiabatic cooling)是蒸发冷却的一种奇特方式。将水从液体变为蒸汽以消耗热量,因此如果我们在温暖、干燥的气候下在室外往室中喷水,水会快速蒸发,然后冷却。如果我们同时通过在室内传输热空气,空气将被冷却。因此,绝热冷却是一种节能的散热方式,并且在该过程中使用的水量通常小于冷却塔所消耗的水量。

热源冷却系统

虽然它们在许多方面有所不同,但是在热源冷却系统类别中的方法却具有类似的功能。

行级冷却(In-Row Cooling,IRC)基本上将计算机房的空调(CRAC)从房间周边移动到了机柜行中。冷却单元设计为类似于机柜,并且放置在机柜之间或机柜行的端部。在这里,他们将空气直接输送到机柜前面的冷通道。同样重要的是,IRC将从热通道排出的空气直接排入每个冷却单元的后部,留下很少的热空气重新循环——即使存在开放路径,例如在部分密封遏制设计中。由于空气路径短,与周边单元相比,所需的风扇功率低。

一些IRC包括控制空气流向的方法。所有这些都使用高效率的风扇,具备变速控制以自动匹配冷却与热释放,从而最小化能源使用。最常见的控制方法依赖于连接到柜门前端的传感器来监测入口的空气温度和湿度。IRC可用于冷冻水,压缩机和基于制冷剂的系统。一些可以提供湿度控制,这意味着它们还需要冷凝排水管连接,而其他则只能提供等湿冷却(sensible cooling)。

IRC的最大缺点是它们占用的机柜位置——从12到30英寸的宽度不等。 虽然通过消除了对于大的周边所需的CRAC的使用通常抵消了占地面积的要求,但是行内单元破坏了机柜行的连续性,这在一些安装中是非常重要的。

机柜冷却装置上方是基于制冷剂的,这吸引了在其数据中心运行的水管有偏执偏好的数据中心管理人员们。但是制冷剂系统也接近能源效率的规模顶端,并且不会吞噬地板空间,因为它们或者直接位于机柜之上,或者在机柜行之间的冷通道中。

它们最常用来补充传统的CRAC,以便直接向高密度机柜提供额外的冷却。由于这些单元仅提供等湿冷却,因此CRAC仍然需要控制湿度,并冷却低密度机柜。机柜上方机组需要占用空间,并且在设计过程中与其他架空基础设施进行精心的协调。

后门热交换器(RDHxs)取代了传统的机柜上的穿孔后门。从计算设备排出的热量通过门中的线圈,在其逸出之前用冷的循环水进行中和。这意味着入口和出口的温度是相同的。

RDHx冷却器的一大优势是其能够与温水一起使用。传统的建筑物冷却系统使用45华氏度的水,但是,在现代数据中心建筑中,55至60华氏度的温度变得越来越普遍。与大多数冷却单元不同,RDHx在高温下仍然表现良好。被动的RDHxs被设计为通过门线圈低压降——排名能源效率规模的顶级位置。

RDHx单元还可以附加到几乎任何规模尺寸的机柜或使用适配器框架制造的设备。它们的主要缺点是将机柜深度增加了大约6英寸,每个机柜需要水管和阀门,以及连接软管所需的清除空间,因此门可以打开。 当软管与地板桁条相冲突时,这在活动地板设计中是具有挑战性的。

请记住,RDHx的安装从不完全受控制,因为它们依靠重新循环来运行。因此,在主要使用RDHx冷却的冗余设计中是固有的。

自冷柜可以可以在很大程度上帮助解决这一问题,特别是当需要几个高密度柜,而实施重大的冷却升级又不现实的时候。机柜是完全封闭的,内置冷却,使设备热量在机柜内冷却,并重新循环到设备进水口。这些机柜可以使用冷冻水或制冷剂连接;他们甚至可能包含自己的冷却压缩机,就像一台大冰箱。

这些机柜最大的问题是冷却故障。有具备冗余、“热插拔”冷却组件的机柜,但最常见的方法是自动门释放,在发生冷却故障的情况下打开后门。这意味着设备受到机房中的冷却条件的影响,可能不足以持续几分钟。自冷却装置通常比其他机柜大,并且价格相当昂贵。然而,它们的成本要比实施重大的冷却升级的成本低。

浸没冷却是一种新的、有趣的技术。服务器完全浸没在不导电的冷却剂中,例如纯矿物油或3M研制的Novec冷却液中,其包围组件并散热。固态驱动器是首选,但是如果它们被密封或悬挂在油位之上,则可以使用传统的常规驱动器。这消除了10%到20%的服务器能源使用以及最易发生故障的元件。

液体的热惯性可以在发生电源故障的情况下将服务器保持在温度公差范围内,根本不需要冷却功率。一款系统可以维持25千瓦半小时的时长。系统可以打造100 kW或更大的容量,可以在任何气候条件下运行,无需冷却设备。在至少一款这样的系统中,唯一的移动部件是循环泵,冷凝器水泵和冷却塔风扇。

标准的为提供舒适度的建筑冷却方案是为满足在机房内工作的人员的需要所提供的。其结果是极端的能源效率(能源效率低至一款良好的风冷设计的50%),并且潜在地降低了总成本,因为消除了对于操作环境凉爽的工厂的需要。一款有42台机架承载了约300加仑的油或冷却液,重量在2500磅和3000磅之间,但分配的重量超过了约12平方英尺,这导致其比今天许多的机架较低的地板负载。

直接的液体冷却也可以被称为“一切旧貌换新颜”。液体冷却再次出现在高性能计算环境中,根据一些业内专家的预测,随着企业服务器及其处理器变得越来越普及,而且更小更强大,液体冷却将成为司空见惯的事,甚至是必要的。

这些系统要么循环冷却水要么循环制冷剂,通过服务器以经由特殊散热器直接从处理器去除热量。这实质上是笔记本电脑多年来一直所使用的冷却方法,采用内部闭环液体冷却系统,其将处理器热量移动到笔记本电脑外壳的边缘,然后借助风扇排出散热。用于服务器的直接液体冷却将液体循环到每个机柜中的第二液体——热交换器,或者有时甚至一直返回到中央冷却系统。

这种技术最大的问题是潜在的泄漏和对管道连接以及所有电源和电缆的必要管理。制造商尽最大努力避免泄漏,借助使用液体管线以尽可能减少的连接点。

是时候采用密集的服务器机架设计了

数据中心密度曾经是一个具有启示性话题,这可能是为什么许多IT企业组织仍然处于4到6 kW机架密度的原因所在了。但是电源和热管理已经为在大于10 kW服务器机架设计中的正常运行做好准备了。

猛涨的处理器内核和机箱刀片服务器设计使计算机机房空调(CRAC)和电源成本变得失控似乎是不可避免的。但是,更高的密度并不会因为设计师的担心而扼杀服务器。虚拟化,节能硬件,积极的冷却遏制和可接受的更高的操作温度联合起来,以防止热耗尽陷入困境。

冷却散热的问题有多大?

并非每项工作负载使用一台服务器,而是使用虚拟化技术适度的对服务器部署虚拟机管理程序,以支持10项、20项甚至更多的工作负载。设备必须将服务器压缩到每个开放的机架空间中,以匹配由虚拟化支持的工作负载容量。同时,芯片在晶体管水平和更低的时钟速度下变得更加密集,因此在设备更新中螺旋式增加处理器核心的数量几乎不改变机架的总体能量消耗。

在数据中心中使用较少的机架,更少的利用服务器已经改变了散热的方法。无需冷却整个数据中心,使用空气处理策略,如热/冷通道,以节省流经操作空间的空气流,操作运营人员部署密封遏制策略,并将运营操作区域缩小到一个更小的房间,甚至在几台机架内。在机架行或机架冷却系统处理这些机架,切断CRAC。

此外,美国采暖、制冷和空调工程师协会(ASHRAE)这样的组织提出:将服务器入口温度提高到80甚至90华氏度。

由于能源管理的这些进步,出现热点和冷却效率低下是不大可能的。然而,不良的规划或复古设计将限制设施的效率增益。

热点和其他冷却问题

意外的障碍物或空气路径通道中的意外间隙会产生多余的热量。例如,忽略服务器机架的挡板使冷却的空气流入机架中的意外位置,削弱其对其他服务器的影响,并增加出口温度。

服务器功率的显着增加也导致冷却问题。例如,用高端刀片系统替换几个白盒1U服务器大大增加了机架的功耗,并且不足的空气流量可能阻碍全套刀片模块的冷却。如果冷却方案不是专门为这种服务器而设计的,通常会出现热点。

当您企业提高服务器机架密度时,请考虑数据中心基础架构管理和其他系统管理工具,这些工具用于收集和报告每台服务器和机架中的热传感器所提供的温度数据。这些工具能够识别违反热限制,并采取必要的措施,从警告技术人员自动调用工作负载迁移到关闭系统,以防止过早的故障失效。

当服务器机架设计产生热点时,IT团队可以重新分配硬件设备。不是填充单台机架,而是如果有可用空间的话,将多达一半的设备移动到第二台机架,或者移走过热的系统。

如果空间不能进行重新设计,则添加点冷却装置,例如用于数据中心使用的便携式自包含空调。如果机架使用行内或机架内冷却单元紧密排列,则降低设定点温度可能更有效,而不是打开保护遏制屏障以添加点冷却装置。

长期的缓解措施

从长远来看,更具破坏性的技术可以帮助进行热管理。

水冷机架通过机柜门或其他空气通道传送冷冻水。水冷式服务器机架解决了广泛的加热问题 - 特别是当空气温度较低,或更高的空气流动速率单独不奏效时。

浸入式冷却将服务器浸入冷却的不导电、非腐蚀性材料(如矿物油)中。这种技术承诺带来更高的冷却效率,几乎没有噪声,在功率损耗的情况下进行长期的热穿越。

然而,这些热点选项更适合于最近新建的数据中心,而不是普通的技术更新。

责任编辑:未丽燕 来源: 机房360
相关推荐

2019-07-10 11:01:59

数据中心冷却技术

2018-08-03 13:02:03

数据中心液冷冷却

2015-10-26 09:30:26

数据中心冷却技术

2023-03-29 10:54:22

数据中心液体冷却

2024-02-27 17:38:13

数据中心冷却

2023-11-03 07:13:20

数据中心计算机标准化

2011-03-02 14:34:54

NVIDIA工作站

2022-09-08 10:38:25

数据中心数据中心冷却

2015-12-09 10:05:06

数据中心冷却技术

2017-11-22 10:17:11

绝热技术数据中心

2018-05-08 05:58:19

数据中心冷却能源

2012-11-21 11:32:23

数据中心绿色数据中心冷却设计

2023-12-19 17:40:28

数据中心服务器绿色能源

2023-09-15 14:20:13

数据中心

2015-11-26 09:43:47

数据中心常见问题

2024-02-23 11:29:05

数据中心服务器

2022-08-17 10:14:17

数据中心能源消耗制冷

2024-04-03 14:50:46

数据中心冷却数据中心

2023-07-11 10:26:04

数据中心冷却计算硬件

2022-08-19 15:09:50

数据中心冷却技术工作原理
点赞
收藏

51CTO技术栈公众号