数据中心制冷:绿色节能的突破口

企业动态
炎炎夏日,相信今年全国大部分地区的人都经受了一次高温的煎熬。与我们同样,机房也是个非常怕热的地方,避免数据中心“中暑”自然不能怠慢。

炎炎夏日,相信今年全国大部分地区的人都经受了一次高温的煎熬。与我们同样,机房也是个非常怕热的地方,避免数据中心“中暑”自然不能怠慢。而当我们走进即使夏季也必须身着厚衣才能进入、空调冷气森森的数据中心的时候,多数IT主管们却不得不面对另外一个严峻的问题:电力能耗之殇。

制冷与能耗:4.5美分如何击败6亿美元

3年前,世界上首屈一指的网络公司Google决定在美国北卡罗来纳州花费6亿美元建立一个新的数据中心。当时这个选择是很令人惊讶的:因为Google的总部位于美国西海岸的加利福尼亚,而北卡罗来纳则是在美国东海岸。而当被问及这样做的原因时,Google的答案却相当之简洁:“哦,那是因为那里的电费太便宜了。”——北卡罗来纳的电费当时为每千瓦小时4.5美分左右,而其他州则需要6-11美分。

市值超过2000亿美元的Google,6亿美元的造价,就这样,轻松败在了4.5美分的电费之下。这不是天方夜谭,而是一个真实的案例。但我们相信,大多数的数据中心规划者们都会苦笑着认可Google的选择:因为,他们太过于了解一个数据中心电费能耗预算的力量了。

这样的情况不仅发生在国外。中国航信数据中心在1999年投入使用,其中的大型机系统和服务器等,支撑着国内所有航空公司的核心订票业务、机场业务等,因此,不能有片刻的宕机,随着电力消耗的增加,它曾经一度不得不通过政府有关部门来协调电力供应。

而中国联通的数据中心,每年的电费已经超过100亿元。

随着新一代数据中心的建设,供电能耗问题,已经成为了所有的数据中心无法回避的问题。

事实上,比起前几年来,企业在数据中心建设中已经更加注意能耗问题,但是,数据中心仍然和高额的电力和散热成本相伴难分。主要原因在于,随着新一代数据中心的建设,网络、服务器、存储等设备进一步集中,这就对数据中心的环境管理提出了新的要求。就拿刀片服务器来说,它的设计特点是在狭小的空间内安装大量的服务器,每平米的功耗大量增加,企业对IT系统的要求愈加提高,电力供应系统密度加大,生产的热量更加集中和庞大,问题也就变得愈发严重。

美国采暖、制冷和空调工程师协会(ASHRAE,American Society of Heating, Refrigerating and Air-Conditioning Engineers)曾统计,2006年,一个典型的数据中心,密集的服务器与存储设备在每平方英寸的设备空间里平均电力消耗达到5000W,而在2002年相同密度的数据中心的每平方英寸的设备空间的平均电力消耗仅为2000W。美国环境保护局在2007年的研究报告表明,2006年,全美数据中心和服务器就消耗了大约610亿KWh的电能,企业IT数据中心的这些能耗,已经占全美总耗电量的1.5%。

IDC的统计数据也显示,在过去的10年里,服务器供电密度平均增长了10倍。

这些都是可怕的数字。但是,这还不是事情的全部。

数据中心绿色节能建设:箭在弦上的考验

传统的制冷方式走进了另外一个瓶颈,那就是,一个能耗的恶性循环正在提醒我们绿色节能的重要性。

据统计,维护一个数据中心的能耗中,真实用于IT设备的电力,大约只有1/3左右。维护费用中大约有40%被能耗所占据,在其中,冷却又占了能耗的50%-70%。能耗的增加带来了热量,热量的增长也扩大了能耗。而另外,更大的热量密度会增加这些影响。

作为如今业界的热点,建设新一代数据中心,除了资源整合等之外,实现绿色节能也是时代对企业提出的新的要求。不仅是保护环境的需要,同时,高额的维护和能耗费用也让这成为企业不得不考虑的问题。

“现代的数据中心,从四大方面,都提出了制冷和绿色的最新要求。” 西门子IT解决方案和服务集团数据中心解决方案部经理程应军总结道。

首先,新一代数据中心从规划、建造到管理,其中的复杂程度已经大大提高。传统的空调制冷是对整个空间进行平均制冷,但现代机房,随着机架式服务器和刀片服务器的普及,数据中心服务器密度不均衡,产生的热量也不均衡,温度梯度变化大,通风降温处理需要更加复杂的方式。传统制冷方式容易造成局部过热等现象,甚至引起宕机。

其次,就是巨大的能耗不仅为能源环境造成了压力,同时也为企业带来高额的费用。

第三,就是合规以及安全的要求。建设新的数据中心,必须能够满足整个行业的规范和要求。国家颁布的《国内电子计算机机房设计规范》、《电子信息系统机房设计规范》以及审批中的《电子工程节能设计规范》等,都对数据中心的能耗、用电、环境提出了具体的要求。

第四,业务持续性和灾难恢复能力也为现代数据中心建设提出了新的要求。目前的企业数据中心,承载着非常多的重要设备其中包括企业的生产系统、财务系统、办公系统等等,都维系在数据中心的安全运行上。一旦出现宕机等,将对企业的生产和正常运营造成极大的损失。

这就致使今天的数据中心规划者,必须做出新的决策:如何在保证IT设备正常运转的情况下,来降低制冷系统的能耗。而这,也将成为企业数据中心绿色节能建设的突破口。

解决:敲响绿色警钟

作为世界工业的领先者,西门子在数据中心的建设上也不落人后,而它在制冷与绿色节能方面的措施,足以成为业内的范例。

西门子北京绿色数据中心于2008年投入运营,一期占地面积超过 490平米,拥有100个机柜和630台服务器,能够提供所有IT和语音服务。而在此之前,由于西门子中国业务的快速发展,西门子北京数据中心也曾面临了巨大的挑战,庞大的IT系统和能耗,也曾成为原有数据中心的困扰。然而,西门子新数据中心,通过对冷却系统的绿色改革,成功解决了以上的问题。

首先,利用冷热通道设计,优化机房冷却效果。优化IT机房冷却效果的常用方式是将 IT设备背靠背排列。来自冷通道的冷风从 IT设备的进风口进入,并排向热通道,以最大限度减少再循环。IT设备从前部吸入冷风,从后部排出热风。服务器合理布置在机柜里,机柜前部和服务器前部保持方向一致,以确保机柜冷却通道的畅通。然而,如果多排机柜以同一方向布置,就会出现效率问题。第一排机柜排出的热风被第二排机柜的进风口吸入。对于一排排机柜而言,随着热风从一排服务器流向另一排服务器,空气温度会越来越高。为了解决这个问题,各排机柜的布置方向应为服务器前部相向布置。此外,各排机柜的后部也应相向布置。这种排列方式就形成了“冷热通道”布局。这种布局如果合理组织,可大大降低能量损耗,并可延长服务器寿命。

其次,在闭合式机柜冷却中,利用空白面板填补机柜安装设备之间的空隙,改善冷却效率。西门子采用了不同的控制和分隔技术来最大限度减少冷热风的交汇,比如在某些非标准机柜中利用空白面板和基板对设备顶端、底部和侧面进行封闭。这样可使气流更可控制,并由此取得更好的冷却效果,从而实现更高的功率密度。

西门子还利用某些机柜的封闭式前门形成人工通风管道,利用机柜内部闭合气流改善机柜的冷却效率。

再次,采用节能解决方案,以及自然冷却方式,降低能耗。讲到散热,其实大自然本身就是一个不耗电、零成本的散热系统,冷热空气互相对流,直至温度达到平衡状态。换句话说,只要把户外空气引入数据中心,空气温度自然得到调节。

西门子的新风冷却系统有两种工作模式:在冬季,把室外冷空气抽进机房,过滤后用于设备降温;在夏季,进行能量交换,缩短空调工作时间,同时降低空调工作负荷。

第四,架空布线和1米高架空地板下无障碍风冷通道;统一整个数据中心的气压。在许多老式数据中心,地板下空间通常被设计为通风管道,然而,大量线缆同时也穿行其中。这影响了冷风在地板下的流动和进入服务器进风口。制冷系统为了达到相同的制冷效果,必须消耗更多能量。而西门子的绿色解决方案采用架空走线方式,消除了缆线障碍。

第五,建立了独立的热分区。西门子数据中心独立的热分区采用独立的冷却系统,来满足不同功能区和主数据中心的不同冷却需求。

第六,绿色环保材料以及地板和隔断保温层,有效减少了冷气浪费。同时,西门子数据中心内使用的绿色环保材料也可确保最大限度降低对环境的负面影响,体现了一个大型跨国企业的企业社会责任。

“我们真实体验到了绿色数据中心的益处。” 西门子IT解决方案和服务集团数据中心运营部经理张志国说。“我们的IT能耗确实降到了非常低的水平,过去两年中,我们的业务仍在增长,但是电力增长却能依旧保持持平和小幅增长,能耗费用大大减少了。”

另外,张志国也提到,西门子数据中心的PUE值得到了大大降低。“中国的平均数据中心PUE值在2.5左右。而目前,西门子中国数据中心的PUE值为1.72,大大低于国内平均水平,而且,预计在最近两年内会降低到1.4。如果我们整个数据中心的利用率提高到80%的话,我们一定可以实现这个目标!”

虽然目前中国的众多数据中心中仍然存在老旧技术的遗留问题,但是,也正因为如此,我们的数据中心更加易于改造。在数据中心能耗和绿色问题在全球、在中国敲响警钟的同时,国内的CIO们,也应该为自己的机房,做出更成熟的考虑。如今,西门子中国公司,也正在将自己建设新型数据中心的技术对外服务,相信,这也将会为国内企业的CIO们,提供一个更好的升级机会与体验。

 

责任编辑:雨送黄昏 来源: 中国信息主管网
相关推荐

2012-05-09 10:38:00

免费制冷数据中心

2015-11-25 11:16:53

克莱门特捷联数据中心制冷

2015-06-09 11:12:11

数据中心冷却塔

2009-01-03 09:40:05

SNSSNS 盈利Web2.0

2013-05-06 09:52:52

绿色节能

2023-08-21 10:39:05

数据中心服务器

2017-06-26 13:32:27

互联网金融互联网+

2015-10-21 17:09:00

数据中心绿色数据中心

2010-01-25 16:49:27

艾默生网络能源

2012-08-10 16:32:42

云计算第一线ISP

2016-09-29 13:44:23

数据中心

2012-02-07 13:29:29

云计算云存储

2021-03-01 09:39:16

数据中心云计算绿色数据中心

2012-12-06 14:25:00

IBM绿色数据中心节能

2015-04-02 11:04:23

2021-02-24 10:52:10

数据中心制冷能源

2015-06-10 15:06:53

绿色节能数据中心

2012-10-17 17:24:36

数据中心微软服务器

2017-08-25 16:35:50

绿色数据中心秘密

2012-04-11 10:51:21

数据中心布线
点赞
收藏

51CTO技术栈公众号