提高数据中心效率、可用性和容量的五项最佳实践方案

大数据
今天本文主要介绍,企业数据中心设计的五项最佳实践方案。

数据中心可以说是任何企业中***活力和最为关键的操作之一。近年来,随着数据中心的密度和容量呈现稳步增长,其复杂性和安全风险也在不断增加,资源日趋紧张,进一步为其相关设备的性能带来了不良的影响。根据一项针对数据中心行业的停机中断研究结果显示,数据中心的任何类型的停机中断的平均成本为389,879欧元,而部分的停机中断的平均成本为199,103欧元。完全停机中断的成本超过524,464欧元。鉴于停机中断的成本如此之高,使得IT容量的可用性通常是评估数据中心的最重要的指标。然而,在今天,数据中心还必须同时在能源和管理资源方面保持高效运行,需要保持足够的灵活性,以快速、经济高效地适应业务战略和计算需求的变化。

效率问题最早是于2005年成为数据中心的一个管理问题的,从那时起,随着数据中心服务器的泛滥导致数据中心能源消耗激增,而与此同时电力成本和人们的环保意识也在不断上升。于是整个数据中心行业开始普遍的重点关注效率问题成为了该行业对于这些增加的成本和能源消耗对于环境的影响所做出的响应;然而,关于如何解决这个问题,数据中心业界尚未没有达成一致性的共识。许多供应商提供了解决方案,但并没有任何一家采用了整体性的方法。其他的某些解决方案则以牺牲数据中心和IT设备的可用性为代价实现了效率提升——而这方面的牺牲几乎没有任何一家企业能够承受。

在传统的数据中心,大约一半的能源消耗用于支持IT设备,而另一半则用于支持系统(如下图1)。艾默生网络能源公司对数据中心的能源使用情况和各种节能方法进行了系统分析,以确定哪些是最有效的。以下5项***实践方案作为数据中心设计的基础。这些***实践方案为数据中心规划者和运营商们提供了优化他们新的和现有设施的效率、可用性和容量的路线指导蓝图。

 

提高数据中心效率、可用性和容量的五项***实践方案

图1、IT设备占传统数据中心所消耗能源的50%以上,而电力和制冷则占了额外的48%。

企业数据中心设计的五项***实践方案

以下***实践方案代表了经过实践验证的冷却、电源和管理技术方法,以提高整体数据中心的性能。

1、***实践方案一:***限度地提高冷却单元的返回温度,以提高容量和效率

在数据中心保持适当的条件要求对由供气和回风组成的空调回路进行有效的管理。热力学定律允许计算机房的空调系统通过提高进入冷却盘管的回流空气的温度来实现更有效地操作。

这种***实践方案基于下如图2所示的热通道/冷通道支架布置,其通过减少热空气和冷空气的混合来改善冷却单元的性能,从而实现了更高的回气温度。回流空气温度和显热冷却容量能力之间的关系如下面的图3所示,其描述了回流空气温度增加5.6℃,通常将导致冷却单元容量能力增加30%至38%。

 

提高数据中心效率、可用性和容量的五项***实践方案

图2、在热通道/冷通道布置中,机架面对面放置,建议在它们之间留出1200 mm的通道。冷空气分布在通道中,并由两侧的机架使用。热空气在每个机架的后部排入“热通道”。

然而,当系统地使用冲裁挡板来封闭开口时,机架本身在两个过道之间产生屏障。但即使具有冲裁板,热空气可能会从顶部和机架行的两侧泄漏,与冷通道中的空气混合。随着机架密度的增加,这就成为了一个更大的问题。

为了减少空气在返回到冷却单元时混合的可能性,周边的冷却单元可以安置在热通道的端部,如图2所示。如果冷却单元不能定位在热通道的末端,吊顶天花板可以用压力室,以防止热空气和冷空气的混合。另一种可能的解决方案是将冷却单元安置在通道或机械室中。

除了管道和压力通风系统之外,还可以通过在靠近热源处施加密封和移动冷却的方法来防止空气混合。

提高数据中心效率、可用性和容量的五项***实践方案
图3、冷却机组在更高的容量下运行,及在更高的回流空气温度下的效率。

1.1 优化通道

密封遏制和基于行的冷却

密封遏制包括盖住通道的顶部或末端(或两者)以隔离通道内的空气(如下图4)。

一般来说,冷通道密封优于热通道密封,因为其更易于部署并且减少了在发生密封系统泄漏的情况下热空气泄漏到冷通道和服务器的风险。使用热通道密封,打开的门或缺少的冲板允许热空气进入冷通道,危及IT设备的性能,如下图5所示。在冷通道密封遏制中,如果冷空气泄漏到热通道中,返回的空气温度降低,并且能够不影响IT可靠性的情况下效率略有降低。

提高数据中心效率、可用性和容量的五项***实践方案
图4、热通道/冷通道布置通过密封冷通道进一步增加了冷却单元的容量。

基于机架行的冷却单元在封闭环境中运行,以补充或替代周边的冷却。这使得温度和湿度控制更接近热源,允许实现更精确的控制并减少了空气跨房间传输所需的能量消耗。通过将热管理单元返回的空气直接安置在热通道内的进气口,使得空气在其***温度下被捕获。虽然这产生了更大的占地面积,但是冷却效率却实现了***化。基于机架行的冷却可以与整个数据中心的更高密度“区域”中的传统的基于周边的冷却方法结合使用。

提高数据中心效率、可用性和容量的五项***实践方案
图5、在密封遏制系统破坏的情况下,基于更简单的安装和更高的可靠性,推荐使用冷通道密封。

2、***实践方案二:使冷却能力和空气流量与IT负载相匹配

***效的冷却系统是匹配了对于实际需求满足的系统。这已被证明是数据中心的一项挑战,因为冷却单元的容量大小是为了适应峰值期间的需求的,而这种峰值需求在大多数应用程序中很少发生。通过使用能够基于数据中心内的条件来理解、预测和调整冷却能力和空气流量的智能冷却控制来解决该挑战。在某些情况下,这些控制与“***实践方案3”中的技术相兼容,根据当前条件调整制冷单元的性能(如下图6)。

智能控制使得能够从基于回风温度的冷却控制转换到基于服务器处的条件的冷却控制,这对于优化效率是至关重要的。这通常允许冷通道中的温度升高到接近ASHRAE所推荐的“安全”操作阈值(***27℃)。根据艾默生网络能源的研究,冷通道温度增加5.6°C可使冷却系统能耗降低20%。

控制系统还通过允许多个冷却单元作为单个系统同时工作来帮助提高效率。控制系统可以将工作负荷转移到以峰值效率水平操作的单元,同时防止不同位置的单元在交叉目的下工作。如若没有这种类型的系统,数据中心的一个区域中的单元可以向房间增加湿度,而另一个单元则从房间中提取湿度。控制系统具备跨机房查看房间条件并智能化确定是否需要加湿、除湿、或无需对机房采取任何措施,以维持其达到目标水平并使空气流与工作负载相匹配的能力。

提高数据中心效率、可用性和容量的五项***实践方案
图6、诸如iCOMTM系统这样的智能化控制可独立管理气流和冷却能力。

3、***实践方案三:利用冷却设计降低能耗

优化制冷基础设施的第三步是充分利用比上一代组件耗能更少的新技术的优势。

3.1 提高风扇效率

移动空气和对高架地板加压的风扇是冷却系统中消耗能量的重要组成部分。当考虑采用冷却水冷却单位时,风扇是***的能源消耗部件。电子换向(EC)风扇为提高冷却单元的效率提供了***选择。EC插头风扇本质上比传统离心式风扇更高效,因为它们消除了皮带损耗,总损耗约为消耗能量的5%。 EC风扇通常需要最小600 mm高的高架地板,以获得***的操作效率。当EC风扇的能耗与可变驱动风扇独立测试时,安装在冷却单元内的EC风扇创造了18%的节省。然而,当EC风扇放置在高架地板下方时,节约增加了30%。这两种备选方案均有助于节省能源,并能够与***实践方案2中所描述的智能控制配合使用,以使冷却容量与IT负载相匹配。

3.2 增强热传递

冷却单元内的热传递过程也会消耗能量。已经证明在冷凝器中使用的新的微通道线圈能够比上一代线圈设计更有效地传热。这些线圈减少了传热所需的风扇功率,为整个系统带来了5%到8%的效率提升。

3.3 混合并入节能器

节能器系统使用外部空气为数据中心提供“免费的冷却”循环。这可以减少或消除热管理单元中的冷却器或压缩机操作,使节能器系统能够为冷却单元产生30%至50%的能量节约,具体节约水平取决于现场的平均温度和湿度条件。流体侧的节约器(通常称为“水侧”)与由蒸发冷却塔或干冷器组成的排热回路结合工作,以满足冷却要求。其使用外部空气来帮助排热,但不允许外部空气进入数据中心。另一方面,空气侧节约器则使用传感器,管道和阻尼器的系统来将外部空气带入受控环境中。

在评估节能选项时,应仔细考虑外部空气对数据中心湿度的影响。数据中心环境推荐的相对湿度为40%至55%。在寒冷的冬季,通过空气侧节能器系统(如下图7)引入外部空气可以将湿度降低到不可接受的水平,导致静电放电损坏设备。而采用加湿器可用于保持适当的湿度水平;然而,这又抵消了节能器所带来的部分节能。

流体侧节约器系统能够通过使用冷的外部空气来冷却水/乙二醇环路来消除这个问题,水/乙二醇环路又反过来提供对于空调系统中的冷却盘管的足够冷的流体。这使得外部空气保持在受控环境之外,并且不必进行调节。根据不同的气候条件,流体侧节能器可以更有效地用于数据中心环境(如下图8)。

节能器在温度较低的地方显然可以带来更多的节省。然而,当设计得当时,它们也可以在温暖的气候条件下实现显著的节约。

 

提高数据中心效率、可用性和容量的五项***实践方案

图7、Liebert®PCW热管理单元利用外部空气在条件***时提高冷却效率。

 

提高数据中心效率、可用性和容量的五项***实践方案

图8、空气节约器是高效的,但在其在某些应用程序中受到限制,并且可能需要额外的设备来控制湿度和污染。

4、***实践方案四:启用数据中心监控,以提高容量、效率和可用性

有时,数据中心管理人员一直是盲目行动,缺乏对于系统性能、以及如何优化效率,容量和可用性的正确了解。历史上,可用性监控和控制一直被领先的企业组织所采用;但管理IT和设施的整体运营却相对滞后。随着新的数据中心管理平台的出现,IT、电源和冷却系统的操作数据汇集在一起​​,为操作提供了***的实时可见性,上述这种盲目行动的情况正在发生变化。

数据中心基础设施需要对实物资产实施监控和控制。冷却和电力系统应该将仪表集成到其中,以便他们有一天可以补充额外的传感器和控制,以实现对系统基础设施的集中和全面的视图。

在整个数据中心安装温度传感器网络可以是对由冷却单元提供的供应和返回空气温度数据的有价值的补充。通过感测多个位置处的温度,能够更精确地控制空气流量和冷却能力,从而带来更有效的操作。

泄漏检测也应该被视为一套全面的数据中心监测计划的一部分。使用战略定位的传感器,这些系统提供了潜在的灾难性泄漏的早期预警,包括了数据中心的乙二醇管道、加湿管、冷凝泵和排水管、架空管道和单位、以及天花板滴水盘。

通过以太网连接和简单网络管理协议(SNMP)的接口提供与管理系统或其他设备的通信,并通过Modbus和BACnet与楼宇管理系统集成。当基础架构数据合并到中央管理平台时,跨数据中心的实时运行系统数据可以推动数据中心性能的提高:

提高可用性:对于故障接收或最终可能导致故障事件的即时通知的能力允许对系统问题更快,更有效作出响应。更进一步,来自监控系统的数据可用于分析设备操作的趋势,并开发更有效的预防性维护程序。***,通过监视提供的数据中心基础设施的可见性和动态控制可以帮助防止源自操作条件改变的故障。服务器入口温度的稳定升高可能在过热关闭服务器之前决定需要额外的机架行冷却单元。

提高效率:在设施、机架行、机架和设备级别实施功率监控,有助于提供更有效和动态的冷却管理能力。提高基础设施效率的可见性可以推动在效率和可用性之间的平衡的知情决策。此外,自动化的数据收集,整合和分析的能力使数据中心的工作人员们能够专注于更具战略性的IT问题。

管理能力:有效的需求预测和容量规划已成为数据中心有效管理的关键。 数据中心基础设施监控可以帮助识别和量化影响数据中心容量的模式。通过持续了解系统容量和性能,企业组织得以能够更好地重新校准和优化基础设施系统的利用(不会将其扩展到会使可靠性受到影响的程度),并释放滞留容量。

5、***实践方案五:利用本地设计和服务专业知识来延长设备的使用寿命,降低成本并解决您数据中心的独特挑战

虽然在优化可用性,效率和容量方面的***实践方案已经出现,但是在如何根据特定的现场条件,预算和业务需求来运用这些实践方案则存在显著的差异。数据中心的专家们可以提供帮助,以最适合您企业业务的方式运用这些***实践方案和技术,并就所有新建和主要的扩展/升级项目提供咨询。

对于已建立的数据中心站点设施,预防性维护已被证明是提高系统的可靠性的有效方法,而数据中心评估则可以帮助确定在数据中心内的不断变化所造成的漏洞和效率低下。

应通过定期的数据中心评估来补充预防性维护计划。评估将有助于识别,评估和解决可能对运营操作产生不利影响的电源和散热漏洞。

在关键点读取温度读数是热评估的***步,这可以保证识别热点和解决可能导致设备性能退化的问题。读数将确定是否成功地从发热设备(包括刀片服务器)中移除热量。这些读数由红外检查和空气流量测量补充。还需要评估了冷却单元的性能,以确保这些冷却单元的正常工作。计算流体动力学(CFD)也用于分析数据中心内的空气流量。

结论

在过去几年中,数据中心的设施被预计将能够提供更多的计算能力,同时提高效率,消除停机中断,并适应业务的不断变化。基础设施技术在整个这一时期得到了发展,因为它们适应了更高密度的设备、以及对更高的效率和控制的需要。

快速的变化使许多数据中心管理人员对新技术和实践方案采取了观望的态度。在几年前这可能尚属一个明智的策略,但到了今天,改进数据中心性能的需求不能再被忽视了。正确部署本文中所讨论的相关实践方案将有助于数据中心改善TCO,从带来资本效益和令人惊讶的能源效率的提高到易于适应计算需求。

在冷却系统中,传统的技术现在与较新的技术相结合来支持更高的能力和效率。提高回风温度则可以提高容量和效率,而智能化控制和高效率的组件则允许空气流量和冷却能力与动态IT负载相匹配。

责任编辑:未丽燕 来源: 机房360
相关推荐

2018-06-22 09:28:22

数据中心可用性效率

2018-02-28 07:31:51

数据中心可用性IT设备

2023-07-28 14:39:41

数据中心服务器

2015-08-24 15:36:48

数据中心

2018-01-24 07:05:20

数据中心高可用性数据

2015-10-28 13:28:57

2017-04-12 22:19:20

2015-09-21 09:21:07

2018-11-21 14:39:56

数据中心容量电源

2012-10-08 13:40:56

2023-08-29 15:11:41

2012-10-16 11:03:03

数据中心能源效率高效

2013-12-10 10:24:03

虚拟化SDN数据中心

2024-04-22 15:16:32

数据中心节能

2024-05-17 10:51:55

数据中心运营商

2016-11-17 13:39:19

数据中心远程管理自动化网络

2016-10-28 15:52:04

数据中心数据中心效率

2015-12-23 10:32:56

数据中心功率

2011-07-13 09:42:05

NetApp FileSnapshot

2017-09-02 07:58:11

数据中心机房UPS
点赞
收藏

51CTO技术栈公众号