机房秘籍——数据中心“从一至十”

运维 服务器运维
数据中心是企业的业务系统与数据资源进行集中、集成、共享、分析的场地、工具、流程等的有机组合。以下十大数据中心数字“从一至十”,包含了许多数据中心管理知识,感兴趣的朋友不妨慢慢看看。

数据中心一体化

应用安全:应用层认证、授权和审计;应用层加密(SSL)和集中PKI部署;应用层防火墙(HTTP/XML防火墙,SAML安全断言标记语言);应用层内容安全(病毒、入侵等等)。

应用优化:应用负载均衡;基于硬件的应用缓存、压缩和交换;应用协议优化(HTTP/TCP协议优化)。

一体化之应用安全

数据中心承载着用户的核心业务和机密数据,同时为内部、外部、合作伙伴等客户提供业务交互和数据交换,因此数据中心的安全必须与业务系统实现融合,并且能够平滑的部署在网络中。

相对一般独立式安全设备而言,一体化的部署方式可以充分利用交换机的接口资源。同时,通过安全模块的虚拟化技术,可以将同一块物理业务板卡在逻辑上划分为相互独立的多个板卡,每个逻辑板卡拥有完全独立的资源和策略,可以更充分的利用现有的IT资源,提供更加精确的实施控制策略。

通过一体化安全的部署方式,能够使得数据中心的网络真正成为一个健壮的网络,满足客户对于网络应用最苛刻的要求。

作为业务网络的心脏,数据中心面临着众多的挑战。扩展性、灵活性、高性能、可靠性和安全性,无一不是对数据中心的要求。尤其重要的一点是:在访问请求急剧增长的时候,服务器仍要保证快速、稳定的传送应用到客户端,而其中最重要的一个技术保障就是负载均衡。

如果不在数据中心配置负载均衡,将会导致服务器负载不均,部分负载很重的机器仍然不断的处理新来的业务请求,出现性能下降、响应时间变慢,甚至出现宕机。而其它的服务器可能长期处于轻载或空闲状态,导致数据中心整体性能不高、资源利用率不高、整体投资得不到保证。

配置负载均衡后,将解决服务器任务调度和资源占用不均衡的状态,提高性能的同时提高业务系统的健壮性。

一体化应用优化模块是一款高性能负载均衡产品,该业务模块创新性地实现了应用优化与网络交换设备的完美融合。具有即插即用、扩展性强的特点,降低了用户管理难度,减少了维护成本。

通过对各种应用进行识别和区分,并对服务器、防火墙进行健康检测和性能检测,采用自适应智能算法将各种应用访问请求均衡分发至不同设备上。极大地提高了应用访问速度,为数据中心提供了一个高性能、经济高效的负载均衡解决方案。

#p#

数据中心2.0时代

对2.0时代的数据中心,业界虽然还没有一个很明确的划分界限和标准,但是从现有情况看,新一代数据中心与现有数据中心有着几方面差异:首先,现有的数据中心基本上是基于比较低的标准进行建设的,这跟过去标准制定偏低有一定关系。其次,原来企业往往把数据中心建设工作看成是一个装修工程,新一代数据中心则是把数据中心建设看成一个系统工程,而且主要是关于机电设施建设的系统工程。评判新建数据中心是否先进、优秀往往只看:它是不是有一个足够强壮的供电系统、制冷系统以及动态分配系统;是否节能、环保?能否满足IT高可用性、高连续性、高灵活性要求;在IT不断飞速发展的今天,这些系统是不是具有一定的弹性和自动化能力。这是我们评判现有数据中心和新一代专业化数据中心的主要区别。

从这些差异中,我们可以窥见2.0时代数据中心的主要发展趋势:

绿色环保

能耗是数据中心主要的运维成本,建设绿色数据中心,可以达到节省运维成本、提高数据中心容量、提高电源系统的可靠性以及可扩展的灵活性等效果。理想状态下,通过虚拟化、刀片服务器、水冷方式等多种降耗方式,在满足同等IT设备供电情况下,绿色数据中心可以降低空调能耗20-45%,同时增加IT设备容量达75%。

因此,绿色数据中心是新一代数据中心发展的重要方向之一。至于如何实现数据中心的绿色环保,从芯片、服务器、存储到网络设备厂商,甚至是软件厂商,都在通过更优化的设计,力图在提升产品性能的同时,推出更为节能的产品,以帮助企业数据中心实现节能降耗。

虚拟化和云计算

虚拟化是影响新一代数据中心发展的重要技术之一。虚拟化的优势在于有效地提高了数据中心的利用效率,降低了投资成本,整合、优化了现有服务器的资源和性能,可以灵活、动态地满足业务发展的需要。虚拟化让数据中心所承载的基础设施资源可以像水、像电一样让企业随意取用。

另一个与虚拟化紧密相连的商业模式是云计算,云计算的核心就是虚拟化资源共享。因此,云计算对未来数据中心的发展模式影响非常大。

虚拟化、云计算作为一种新兴的技术和商业模式,由于都要面临颠覆传统IT应用理念的挑战,因此,还处于推广阶段。但两者带来的成本优势和效率优势却是显而易见的,而且,已经有不少企业开始勇尝“虚拟化”这只螃蟹。

整合

整合是现有数据中心时代以及未来2.0时代数据中心领域都需关注的重要管理手段。企业可以通过重新设置服务器,提高服务器利用效率或者采用新型刀片服务器,提高数据中心单位密度利用效率等多种方式提高数据中心的利用效率。甚至,企业可以通过采用虚拟化技术以及关闭高能耗、低效率数据中心等手段整合数据中心资源。

实际上,已经有很多企业开始这么做了,比如,近期,某大型数据中心服务提供商就整合、精简了不少数据中心。

模块化

数据中心采用模块化方式构建将更灵活,更适应未来数据中心发展的需要。我们完全没有必要再将数据中心看成一个单一整体,我们可以将数据中心按应用、服务类型和资源耗费率将数据中心分成多个功能区域。各个功能区域在不影响其它区域运行的情况下,可以动态升级和维护。比如,按照密度可以分为高密度区和普通密度区,在高密度区,地板承重、冷却系统以及电源供给配置都更高,可以满足更高要求的数据中心服务需求。当然,还有很多其他分类方式,比如按照应用类型,可以将数据中心分为生产中心、测试中心、灾备中心等等独立区域。

灵活性

灵活性是新一代数据中心的重要指标之一,同时也是企业业务变更过程中的必然需求。企业在扩展、增加业务时,必然要对IT资源做出动态调整。业务增加时资源不能及时提供,或者业务减少时资源不能及时收回,都会对企业经营带来不良影响。

这就是为什么很多数据中心服务提供商都会将灵活性作为新一代数据中心发展演进中的重要一环的原因。其中,HP把模块构建、加快实施IT变更的速度写进了HP对新一代数据中心的理解中;在IBM的路线图中,动态为其全新企业级数据中心的最终阶段,而“动态”的含义不外乎更灵活,只是表达方式不同而已。

绿色环保、虚拟化、整合、灵活性、模块化以及自动化、云计算等等技术趋势必将引领数据中心2.0时代的发展。

#p#

数据中心的“三网”困局

从传统数据中心的网络结构看,以太网(数据网)、存储网和高性能计算网并存的“三网”式网络架构占据着绝对主导的地位。

这种结构在业务相对单纯的数据中心发展初期可以说是一种无可厚非的整合理念。但随着企业业务的飞速发展,这种通过异构网络整合而成的“三网”结构便成为了数据中心发展的瓶颈。这在一方面传统数据中心的前端访问接口通常采用以太网进行互联而成,构成了数据网络;另外,传统数据中心后端的存储更多的是采用NAS、FCSAN等;而服务器的并行计算则大多采用Infiniband和以太网。不同的网络之间存在硬件和软件异构、网络接口与数据传输方式的不统一,使得过分复杂的异构网络,严重阻碍了数据中心向更高效的方向发展。

另外,“三网”结构的数据中心随着业务的持续发展、系统的更新升级、设备的不断增多、能耗的大幅飚升,也面临着资源分配与业务发展无法匹配的难题。管理三个独立的网络增加了数据中心日常运营的复杂性和成本,资源成本、人力成本的增长速度已经从很大程度上制约了传统数据中心的业务发展。

数据中心网络能否“三网合一”?

相信大家都听说过运营商“三网合一”的概念:电信网、广播电视网和计算机通信网的相互渗透、互相兼容、并逐步整合成为统一的信息通信网络。其基本目的是为了实现网络资源的共享,避免低水平的重复建设,形成适应性广、容易维护、费用低的高速带宽的多媒体基础平台。

我们可以看到,在“三网合一”的概念中,提高资源共享、降低运维复杂度和运维成本是其核心思想。那么,在同样拥有三张网的数据中心里,这条路是否依然可行呢?

H3C研发副总裁尤学军曾指出,融合本身会带来网络主要设备的简化和布线的简化。简单来看,简化网络设备和布线便在一定程度上解放了网管、节约了运维成本。管理三张不同的网络和管理一个网络,对于数据中心的管理者来说,完全不是一个概念。

从技术角度来看,FCoE的出现,给人们打开了一条融合统一数据中心网络的大门。FCoE源自希望将目前大规模应用的以太网和光纤通道相结合的想法。两者的结合将给数据中心带来减少设备数量、充分利用光纤通道、存储集中化等好处。FCoE给大型企业数据中心带来的好处则非常明显,因为大型企业每年都投资数十亿美元用于光纤通道存储,因此,能够在10Gbps的增强以太网中充分利用光纤通道将非常诱人。同事,在技术上实现数据中心网络的融合统一的理论条件和技术条件也已经逐步的完善了起来。

数据中心网络如何“一网打尽”

在H3C提出的数据中心架构理论中,数据中心网络架构的发展主要分为三个阶段:第一阶段是三网分立的阶段,第二阶段是整合存储网与以太网的“半融合”阶段,第三阶段是三张网高度融合统一的阶段。由于FCoE的出现与技术演进,当前的数据中心网络已经可以算是进入了半融合阶段。

不过值得注意的是,国内数据中心用户在FCoE方面的需求还不是非常大,国内的需求则主要体现在了一些外企在国内的分公司内。这从一方面来说可以看出全球市场对于数据中心网络融合的需求已经成熟,而从另一方面也反映出国内企业在数据中心升级的问题上仍存在一些顾虑。

赛门铁克在其发布的《2010数据中心研究报告》中提到了一点:数据的安全、备份与恢复,以及持续的数据保护是2010年最重要的计划;51CTO记者通过了解也发现,在对数据中心升级的过程中,用户通常对其核心数据能否安全迁移表示了极大的关注。在很多国内企业的决策者看来,业务发展造成的压力远没有担心数据遗失、损毁带来的压力更大,进而对部署尚处在发展阶段的新技术充满了顾虑。也正是源于这种顾虑,数据中心网络融合在国内用户看来,其概念意义也要远大于其实际应用意义,这也使得FC网络在国内数据中心网络的应用依然处于主导地位。

不过,尽管大多数数据中心用户的需求仍然趋于保守,还是有一部分用户由于其业务压力仍然会在新技术中寻求帮助。H3C网络和安全产品线总工康亮提到了某电视台的需求案例:电视台有大量的非线编系统,其前端是用以太网,后面存储全部是SAN的FC网。但是现在很多电视台在建新的非线性编辑系统的时候基本上就想要一张网。某电视台的总工已经提到了,他说我们现在要建一张网。一张网的概念就是要建融合架构。

不难看出,当存在大量的存储需求,网络系统越来越大的时候,就将面临这种精简布线的要求,也就是进行数据中心网络融合的要求。那么,我们需要怎么做才能部署这种从传统到融合的网络转换呢?

从FC到FCoE的部署往往不是一蹴而就的,通常的做法将是先在传统架构的局部或者单独搭建一个基于FCoE的区块,将实验性的新业务直接部署在新的区块之中,随着业务中心的转移,逐步将旧有的业务也像新的数据中心迁移,做到保证业务连续性、安全性、稳定性。当然,这并不代表FC与新的融合网络要保持永久的共存,所有这些的目标依然是将企业数据中心的三条网络最终融合成为一条统一的数据网络。

在部署数据中心融合网络的问题上上,尤学军认为如果说下一代网络和传统网络混在一起组网的话,实际上是抹杀了下一代网络的优势。因为下一代网络是无丢包、无柱塞、QOS保证、低延时等等,所以显然这两个网络肯定是独立的。就是传统网络是传统网络,新一代的网络中心会单独的组成一个符合新一代网络要求的网。这个业务怎么从传统网络向新网络迁移?这根据不同行业的客户要求,也会有不同的部署策略。

#p#

数据中心节能四大挑战

电信数据中心对绿色节能的需求很有代表性,它反映了目前所有数据中心的发展需求。相对来说,数据中心的设备采购、场地购买等成本属于一次性的硬成本,而其中的设备所消耗的能源成本则是持续增加的变化成本,如果不能对数据中心的绿色节能进行系统、战略层面的规划,那么它将成为数据中心用户心中永远持续的痛楚。

一、数据中心绿色挑战升级

一直以来,数据中心的存在为我们的工作和生活带来了便利,但对数据中心拥有者而言,维持运行数据中心正常运行所需的庞大能源开支一直让他们感到苦恼。

比如,按照一般标准来算,数据中心的能耗为100瓦/平方英尺,那么一般20000平方英尺的企业数据中心的峰值散热需求量,相当于一栋200000平方英尺的商务大楼的需求量;年总能耗量则相当于一栋400000平方英尺商务办公大楼的能耗。

在传统的数据中心,客户为了确保最大化的运行时间,不得不频繁进行冗余电源的基础设施建设,仅这项费用每年就高达数百万美元。除了服务器、存储、网络等设备自身的耗电量在逐年增加外(这些IT设备的数量在每年因业务扩展而增加,同时这些设备的性能不断提升也导致单机耗电量增加),为确保数据中心拥有适合的温度,使得IT设备能够正常运行,空调制冷等设备的耗电量也在以惊人速度上升--在没有经过绿色节能改进的绿色中心里,空调制冷设备温度要调得很低,以确保数据中心散热最大的IT设备区域温度下降到适宜数值,这样的话,散热量一般的区域温度就会更低,白白浪费了电能。有数据显示,在数据中心所耗费的电量中,将近50%的电能被用来空调制冷。

由此可见,对数据中心的绿色节能调整已经到了刻不容缓的时刻。第三方调研公司数据预测,如果不对数据中心进行节能调整,那么在未来5年内,超过90%的企业会因遭遇电源可用性限制而导致数据中心运行的中断;会有25%的数据中心因此产生严重的业务中断。

数据中心从业者注意到这个问题,并开始了积极的探索。例如数据中心越来越注意通过各种方式降低能源使用,涵盖范围可从他们部署的产品/系统到太阳能电池板、专用小型电厂等各种方法的“现场”发电。

二、IT设备的节能选择

选择节能的IT设备当属我们改造绿色数据中心的首选。设备自身越节能,耗费的电能也就越少,这在服务器、存储设备动辄成百上千台的数据中心中十分重要。

目前芯片技术快速发展,如英特尔的处理器片可以实现更高的每瓦性能表现,这直接促使服务器整机的能耗表现要强于旧产品。同时,用户要在此基础上,考虑更具自身独特节能特点的IT设备。

除选择绿色节能的IT设备外,数据中心用户还可以多利用虚拟化技术,将多台物理服务器整合到一台服务器上来,提高利用率,节约能源消耗。

三、整体环境能耗控制

为实现绿色数据中心,光有节能产品远远不够。企业还需要通过各种办法,能够实时监控数据中心整体环境的能耗变化,并根据监控结果进行调整,降低能源消耗。

用户可以考虑对数据中心环境温度的智能控制。因为数据中心控制环境温度的空调制冷设备将消耗数据中心大部分电能。

四、设计层面的调整

在实施了选择节能设备和智能调整环境温度后,绝大多数数据中心的绿色改造已经能有成效。但如果还想对数据中心进行更深一步的节能改进,那么用户需要考虑在数据中心整体设计层面的调整。

比如,用户可以借助专业的服务,从整体角度入手,对数据中心进行全面评估、在此基础上进行规划设计,调整现有数据中心或者重建。

由此我们可以看到,这个层面的做法属于对数据中心的大调整,它大多数是用户新建绿色数据中心时的选择。

#p#

数据中心五唯独评估

通过五个维度对数据中心进行全面细致的评估,能综合分析出数据中心以往建设中存在的不足,为其优化改进指明了方向。

国内数据中心建设从银行、电信、政府等行业起步,到目前为止,以数据中心为标志的大集中效果初步显现,更多的行业和企业开始重视数据中心建设,数据中心进入新一轮投资建设期。在这次新一波数据中心建设高潮中,一方面是更多新的数据中心正在建设和筹划建设,另一方面,灾备中心的建设又成为数据中心建设之后的必然和迫切的要求。

在信息化建设走在最前列的电力、银行、保险、证券行业的“十一五”规划中,都重点强调了数据中心建设的重要性,明确了数据中心和灾难备份中心的建设任务。此外,其他行业数据中心的建设也在迅速启动。如烟草行业数据中心建设以及交通部水运数据中心的建设部署等。

积沙成塔的数据中心问题凸显

随着数据中心建设日益完善,国内企业或机构越来越认识到数据中心是一项复杂的综合系统工程,原来积沙成塔的建设方式,所产生的问题正日益突出。所谓积沙成塔的建设方式,典型的表现就是缺乏总体规划和有计划的建设,企业被动地随着系统不断增加,服务器系统、存储系统、网络系统日益复杂,企业数据中心频繁更换地点,对选址和基础建设缺乏系统的考虑,同时运维保障、信息安全等措施又不完善,这使得很多数据中心可用性很差,风险巨大。但另一方面,数据中心投资规模较大,企业或机构往往受制于资源约束,只能在重点领域进行投入和改进。因此,对数据中心进行系统评估,应找出短板,有针对性地进行完善,这才是目前国内数据中心建设比较切实可行的方式。

五维度评测助力优化建设

笔者认为,应从五个维度对数据中心进行评估。这五个维度包括:基础设施可用性、计算处理能力、运维保障能力、安全防护能力、绩效能力。数据中心通过五个维度对自身进行全面细致的评估和问题识别,综合分析以往建设中存在的不足,为数据中心后续的完善建设和优化改进指明方向。计世资讯数据中心能力评估五维模型如图1所示。

 

管理人员通过上述模型中五个维度系统的评估,对数据中心的不足能够一目了然。下面结合我们对比较有代表性的某单位所完成的评估结果,来分析我国目前数据中心存在的典型问题和不足。

从图2中可以看出,该单位数据中心基础设施建设刚刚超过60分,而在运维保障和安全防护方面甚至还达不到60分。该企业在进一步接受基础设施的细评(包括可用性从建筑物、环境保持、供电安全、制冷能力、安防能力、通信保障、基础设施运维保障7个方面)时结果如图3。

从图3中可以看到,导致该单位基础设施得分较低的主要因素在于建筑物、供电、安全等方面。这与国内数据中心往往临时设置在办公写字楼有关。如果根据国际标准,作为数据中心机房的建筑物在楼房承重、防震、防爆等方面都有严格指标要求,这些都远远高于办公写字楼,而国内,数据中心建筑物选择普遍不过关是常见的问题之一。依据国际标准,数据中心供电安全应考虑供电的备份,如两路供电,更高等级甚至要求双变电所供电,这都是国内数据中心考虑欠缺的方面。

#p#

数据中心六大技术创新

当前,虽然琳琅满目的电子产品是消费者关注的对象,但那些企业和公司更加关注的是数据中心新技术的产生。这些新技术往往能够解决数据中心的实际问题,可以使企业的业务更好的运行。以下是六项数据中心的创新技术,可以使数据中心得到更好的发展。

1、线路的简化

HDMI(高清晰多媒体接口)在消费电子产品上的成功已经被证明,现在不管是蓝光播放器还是机顶盒、高清电视机都使用了HDMI电缆,可以让用户得到更好的体验。英特尔公司已经用同样的原理研发出了光峰技术。这种光纤电缆首先将在笔记本和台式机上使用,来提高传输速度并减少杂乱的线路状况。而且,这种光纤电缆还会应用在数据中心的服务器和交换机上。

这种基于光峰技术的电缆,直径大约为3.2毫米,和USB的电缆一样的薄,但可以达到100英尺长而不会衰减信号。英特尔公司已经在计算机上设置了光峰接口并开始生产光峰电缆。英特尔还表示,包括惠普和戴尔在内的电脑公司,将会在2011年使用基于光峰技术的接口和电缆。

对于在数据中心上的应用,英特尔公司介绍了一些光峰技术的应用前景。上个世纪的90年代,IBM公司就推出了Escon(企业系统连接)线路,使用该线路在大型主机之间的传输速率能够达到200M/秒,而使用基于光峰技术的线路,传输速率将能够达到10G/秒。而且,光峰的线路组件还有着重量更轻,价格更便宜等优点。

之前英特尔曾表示,基于光峰技术的芯片内部还是普通的电子线路,对外输出输入口则采用光纤,所有器件都采用同样半导体制造工艺。在芯片上采用光信号,一方面可以降低功耗,另外一方面可以整合各种各样与外面连接的接口,使各种杂乱的线路得到简化。

如果数据中心能够使用这项技术,不仅仅能够降低数据中心的能源消耗问题,还能大大简化数据中心复杂的线路安装过程,进而提高数据中心的运营和维护的效率。

2、深层液体冷却和水平机架

液体冷却在数据中心并不是一个新的概念,但绿色IT为它赋予了一个新的使命。首先,水平放置的机架有助于电缆线路的管理,是管理员能够更加容易的接入设备。其次,水平机架周围由液体所包围,这是一种名叫称为GreenDEF新的冷却液,这种冷却液的成分是矿物油,没有毒性并且也不导电。采用这种冷却方案的成本将低于传统的冷却技术。

使用深层液体冷却技术,能迅速冷却高密度服务器,提高办公效率,比起气冷式服务器,所耗费用低廉。而且它占用的空间不大,使用者不需要再为服务器搭建大型的冷却装备。

深层液体冷却提供了一种比空气更有效的热快递,该项技术消除了机架对能耗更多的需求,只需要对足够的空间进行空气调节,就能够保持机房内温度及能耗的需求。

HardcoreComputer的首席技术官ChadAttlesey说,“在我们的数据中心,这种冷却的成本相比传统的空气冷却或空调冷却的成本要低60%以上。我们的另一个核心是冷却剂与空气比是1350倍,这个比例将最大限度地减少对空调和移动数据中心设备内空气的需要。”

该项技术现在已经被一些服务器厂商所应用,例如IBM的刀片式服务器和英特尔最新的超级计算机。名为Ranger的超级计算机每台服务器机架的功率仅仅只有30千瓦。

3、宽带线路的粘结

企业可以在光纤和T1线路的建设上花费数以万计美元,但一种新兴的技术提出了一种成本更低的方案选择。

蘑菇网络公司提出一种名为松露宽带粘结(TruffleBroadbandBonding)的网络应用,该项技术可以快速将6根独立的宽带线路连接在一起,组合成一个巨大的宽带管道,该宽带管道的下载速度可以达到50M/秒。该项技术可以应用在DSL调制解调器,电缆调制解调器,T1线路等几乎所有的宽带连接。

这项技术有助于提高数据中心整体的数据传输效率,而且,如果该项技术出现了问题,并不会影响原有的线路,原有的线路仍然会正常运行。

肯尼亚的一个电视制片人SteveFinn使用了这一方案。他的公司要向8个非洲的国家转播电视节目。以前他需要向宽带服务提供商每月交纳4000美元,而且传输的速度还不能保证,要取决于延时和流量。自从使用蘑菇网络公司的新技术后,速度能够达到以前的大约4倍,而且成本只相当于以前的一半。

思科公司也提供类似的宽带捆绑技术,但成本更大,安装也更为复杂,这意味着该项技术还没得到广泛的应用。

4、多个数据中心的连接

在一个大的企业,将多个数据中心连接在一起从表面上看起来是很困难的,有安全问题、以太网传输的问题以及多个地点的IT业务协同运作的问题等等需要去解决。

思科的覆盖运输虚拟化(OverlayTransportVirtualization)技术是一项可以解决以上问题的新技术。这是一项数据中心间的互连功能,意图是要简化在地理上分散的多个数据中心间通过扩展2层以太网LAN连接。基本上,OTV执行的是“MAC路由”。OTV会通过3层路由基础设施对以太网进行封装和隧道化,从而使多个分散的数据中心看起来就像是一个逻辑实体。OTV能够让IT管理人员跨数据中心迁移工作负载和虚拟机,而不必对其现有网络进行重新设计或重新配置。

使用该项技术的用户可以购买相应的软件包括Nexus7000软件,来连接在不同地方的数据中心,该OSC软件的许可证大约为25000美元。

该项技术对于很多企业来说都是相当重要的,例如VMware的VMotion就需要长距离迁移数据中心的工作负载,用于资源分配或者灾难备份。思科称,每个站点只须执行4条指令便可在5分钟内覆盖已有的3层网络。而其他的数据中心互联技术,例如MPLS或暗光纤,则需要好几个月的设计和规划才行。

思科称,OTV还包含有其他一些不错的功能,例如多路径、多链路和环路预防,它还能抑制未知的2层流量和生成树包的泛滥。它能够有效地限制诸如广播风暴或生成树循环等错误只在一个数据中心内发生,而不会扩散到其他数据中心去。

5、优先级存储的划分

内部通信尤其是电子邮件是每天都会被频繁的使用,其中产生的大量数据往往是一些数据中心的难题。大量的电子邮件还消耗了大量的存储空间。Messagemind是一种可以自动的将电子邮件整理归档的低成本系统,它的出现,有效的解决了这个难题,解放了存储空间,并节省了数据中心的成本。

Messagemind可以分析公司的所有电子邮件,并跟踪这些邮件的去向:哪些邮件被用户阅读,哪些邮件被删除,哪些邮件被保存,然后按照这些邮件的去向来将它们划分不同的优先级。

数据中心的管理员可以利用这些信息来划分存储这些电子邮件的区域,而不用将所有的电子邮件存储在一个存储系统里。这样大大节约了成本。例如,那些低优先级的电子邮件就可以存储在一个低成本的存储系统里,而高优先级的电子邮件就可以存储在拥有更高性能和更高成本的存储系统里。

不过,即使是最好的电子邮件解决方案,还是需要员工来自己管理他们的信息的。Messagemind并不能代替员工来管理他们的个人电子邮件,但以Messagemind为代表的优先级方案可以更为有效的解决数据中心的存储问题。不单单是在电子邮件的使用上,在数据的存储上,都可以划分优先级来分配不同的存储区域,数据中心的管理员可以通过图表的形式来判断出数据的优先级,来制定相应的方案,从而为数据中心节约成本。

6、虚拟化效率的提高

在过去的10年里,虚拟化一直是一个时髦的词。虚拟化通常是指从一个服务器或者存储中分配多个操作系统。

AppSense是一个关于用户帐户的虚拟化软件。它从操作系统的用户配置文件中提取用户信息并和操作系统分隔开来。这就意味着,如果操作系统中的应用程序发生改变,用户的信息仍然可用。而如果用户的设置发生损坏或者丢失,管理员可以回复到最近的一个配置。

LandonWinburn德克萨斯州大学的一位软件专家,使用AppSense3000为他的学生配置用户账户设置。Winburn说,在管理用户设置的过程中,每周都会有40到60个学生使用账户回复设置,每天都会有发生5到10起因为误操作而引起的系统崩溃的案例。

在以前,如果用户的配置文件发生损坏,那么唯一的办法就是删除配置文件,这样,用户智能从头开始配置他们的应用程序。但是,现在,随着AppSense的出现,恢复这些设置的速度是在瞬间的,通过这些虚拟账户,每台服务器可虚拟化的数量将大大增加并更加容易地管理,这大大提高了虚拟化的效率。例如上文中的德克萨斯州大学,该大学尝试把每台服务器中的虚拟账户由40个增加到了80个,在管理上并没有带来任何负担。

#p#

数据中心瘦身七大秘籍

随着一些数据中心的规模不断加大,随之而来的问题和压力也越来越多:空间紧张导致升级扩展难度大,电耗和散热,管理维护困难,总体成本费用增高等等,其中不乏是数据中心规模过大带来的“肥胖症”。

于是,业界也开始考虑给数据中心“瘦身”,特别是在经济环境还比较复杂的今天,很多IT经理都认为“数据中心的规模越小越好”。其手段主要是虚拟化、高密度多功能的硬件设备、新能源以及模块化的设计技术等,通过这些手段不仅可以缩小数据中心的规模,让机房变得更加紧凑和高效,而且可以借此节省电费、减少硬件资产、降低机房空间租用成本以及维护管理费用。

在数据中心“瘦身”方面,笔者总结了以下七个方法:

1.将分散各地的数据中心/机房集中起来。

如果你有很多个数据中心分散在各地,最好是把它们进行整合,缩减为少数几个,将计算资源集中到少数规模大且高效的中枢数据中心,并关闭其他本地数据中心,这样就可以在这几个数据中心去使用许多新的技术,在成本和管理上都省事很多。

看IT领域的巨人们自身是怎么做的吧!如英特尔2008年在全球17个地方拥有116个数据中心、77000台服务器,每天的网络吞吐量达到173TB,到2014年,将"瘦身"到只有8个——3个在亚洲、3个在欧洲、2个在美国,这8个数据中心将承担着庞大的英特尔全球芯片设计、办公、工厂以及企业应用等方方面面的任务。更早一点,2007年,IBM公司以30台Systemz大型主机整合了3900台分布式Unix和X86服务器,通过能耗、软件许可证、管理人员方面的节省每年可以减少2.5亿美元的支出。

IBM认为新一代数据中心的特征是集中管理、服务导向、虚拟共享、动态灵活

2.部署虚拟化。

虚拟化是数据中心缩身过程中的必修课,通过把服务器的各种底层部件转化为可以灵活分配的计算资源,虚拟化技术可以把多台服务器上的操作系统和应用系统一并迁移到一台服务器上,从而可以极大地提高设备的利用率,显著地节省数据中心的空间。

想想看,原来你有100台服务器,通过虚拟化整合到了10台,也就意味着你可以节省掉90台,这90台服务器所消耗的电力成本、散热成本、管理维护成本都省出来了。当然,对于那10台服务器,建议根据业务需求选择性能、容量、稳定性都更好的高端服务器,如4路以上的X86服务器、UNIX小型机甚至象IBM那样直接迁移到大型主机上去。

更重要的是,虚拟化改变了IT运行的方式,跟传统的物理模式相比,IT系统的效率会大大提高。当然,今天你不能仅仅盯着服务器的虚拟化,还要考虑存储虚拟化、桌面虚拟化、应用虚拟化等等。

 

虚拟化是数据中心缩身过程中的必修课

3.使用高密度硬件设备。

在选购服务器、存储及其他物理设备时,要比较不同厂家产品之间的规格大小,以更充分地利用你的机房空间,比如刀片服务器就比一般的机架服务器更省空间。对于新设计的数据中心,要考虑进行可扩展的模块化设计。

在国内,你还得考虑一些实际问题:每机柜的供电条件。在很多机房,特别是IDC机房,每机柜的电力都限制在10安培左右,这也意味着你只能在一个42U高的机柜里塞进去一个刀片服务器机箱,和1U服务器相比也并不划算,这时考虑一下“双胞胎”超密度服务器或者象IBMiDataPlex那样的“类刀片”产品,也许你会发现后者更加切合实际。PPS.tv是IBMiDataPlex在中国的第一个客户,PPS总裁徐伟峰曾这样算了一笔帐,“由于国内机房每机柜限电12安培,这意味着每机架只能放置12-15台1U或2U的机架服务器,或者1个刀片服务器机箱,但使用iDataPlex,可以在同样的电力条件下放入26台服务器!”

4.使用多功能集成性的技术。

尽量使用那些可以完成多个任务功能的设备,比如使用同时具备防火墙功能的路由器,比分开购买要好。又比如刀片服务器把计算、存储、网络、供电、散热等单元集成在了一个机箱里面,如果再配上虚拟化方案,可以实现极高的整合密度。

IT管理人员应该关注“每平方米空间所承载的计算能力”这样一个指标,而不只是一味地为了节省空间去做,因为随着公司业务的发展,计算规模和存储容量也在增加,因此,小体积、高密度、多功能、高性能的IT设备受到了大家的重视。当然,单个这类高密度设备的功耗量肯定要高一些,甚至需要对机房/机柜的供电和散热系统重新改造,但从每瓦特性能、每平方米性能这些指标来看,高密度计算还是很划算的。

刀片式IT设备正在改变数据中心的面貌

5.尽量简化。

在数据中心里尽量减少线缆、夹具等物品,能整合的就进行整合。甚至SUN、Rackble、IBM、HP等将整个数据中心都简化、浓缩成了一个个的“集装箱”。

比如,惠普新推出的PerformanceOptimizedDatacenter(简称POD),能够戏剧性地将5000平方英尺的大型数据中心“浓缩”到一个只有320平方英尺的集装箱中去,SUN公司的Blackbox也是类似这样的产品。目前,HP的这些集装箱采用了模块化的设计,可以容纳不同厂商标准的刀片服务器,在美国休斯敦安装配置好,然后运送到全球各地去。平均每装配这样一个集装箱只需要6个星期,一个空的POD大约要价140万美元,带有机架和散热系统,但不包含计算存储设备,这比新建一个数据中心要便宜得多。据了解,其PUE值为1.25,跟那些PUE值大于2的传统数据中心相比,电能效率也高出不少。这种POD一般可以放在仓库里或者闲置的购物中心当中。

6.管理和规整好你的设备。

对于那些用不着的多余硬件,可以考虑转卖掉,或者让厂商回收回去。对于未来可能会用到,或者应急之需的物品,可以找一个专门区域进行存放,而不要堆放在数据中心的重要区域里。这些考验的是你的管理水平,对于大型数据中心,需要动用专门的软件来实现智能管理。

7.试试空气冷却,减少空调设备

据统计,在传统数据中心里,机房空间占用成本的比重在7-10%之间,而60%的数据中心成本都来源于电力和制冷部分,包括空调、散热器、发电机、UPS、PDU等等。因此,除了采用虚拟化、刀片服务器等手段外,在空调上做做文章可能效果更佳。

比如英特尔在整合自身数据中心过程中就动用了“空气节能器”技术,来替代耗电量大的空调。现在一般的数据中心都依靠空调来降温,但实际上一天24小时并不需要都开着空调,因此,通过良好的设计,可以直接使用室外的冷空气(如晚上、冬天)来冷却,由系统根据设定的温度范围进行调节空调的开或关,这样你可以减少空调的数量。

英特尔的“空气节能器”示意图

对于想进行数据中心缩身的用户来说,规划是非常非常的重要,因为这时已经没有多余的空间给你,在更加紧凑的机房里,你必须让每一块都能够恰到好处的发挥作用,所有规划的过程必须详细而谨慎,因此,你要考虑的可能远远不只上述七个方面。

#p#

数据中心节能减排八招应对

节能降耗、减少碳排放,无论是对于社会还是企业用户都有很重要的经济价值和环保意义。在IT环境中,特别是对于拥有大量服务器存储设备的数据中心而言,节能减排的话题也受到越来越多CIO们的重视。面对2008年,如果您想在节能减排方面做一些事情,希望下面8个方法对您有所参考。这些方法中有些是技术层面的,有些则是管理流程层面的。

1)虚拟化

相信很多用户的服务器应用模式仍然是传统的“一个应用占用一台服务器”。实际上,你可以通过服务器虚拟化技术,在一台服务器上安全地运行多个应用。而且,虚拟化可以把服务器的平均利用率从15-20%提高到80-90%,也就是说,你可以用更少的服务器来完成更多的工作,而耗电量不会增加。

2)关闭不用的服务器

最简单的节能办法莫过于关闭掉那些不用的电源。当然,对于那些7*24小时不停运转的业务来说,这个想法实在有些幼稚。但实际上,有一些应用并不是全天候的运转。因此,对于这些应用,只有在真正需要的时候,才把服务器和磁盘设备打开。当然,这要求你得有一套精准的运作管理流程,来保证当业务需求增加时,能够及时提供IT服务。

3)电源节能技术

对于大多数笔记本电脑用户而言,电源节能技术已经是很稀松平常的事了。对于服务器用户来说,也可以根据业务需求、负载变化来提高或降低服务器的运行速度,从而达到节能的目的。比如,一些最新的CPU就能够根据负载变化来调节运行主频。用户也可以通过管理软件来设置这一功能。另外,在产品选购时,应该选择那种具备最高电源效率而且可以按需调配的服务器。要知道,有些服务器虽然便宜,但其电源效率不怎么样,在电源的交直流转换过程中容易损失掉一些效率,而且产生大量的热能。

4)应用优化

第四种方法是对你的数据中心里的应用进行优化。那些体积过于宠大的软件、效率不高的软件、以及那些对业务价值没什么贡献的软件,都有进行修整、优化的空间,甚至可以直接卸载掉,从而减少服务器的负载。

5)加强设备维护

严格的设备维护管理是一种更加基础但也是非常有效的办法。数据中心经理可以通过精细的维护来提升设备的效率,确保所有设备都运行在最高效率水平上,同时修改各类IT设备的布局和配置,从而达到减少散热要求的目的。这些看似平常的做法将能够提升数据中心的总体效率,减少碳排放量。

6)采用更高密度的多核CPU

由于功耗要求更低,使用全新的多核CPU能够带来显著的功效。试想一下,如果在一个芯片上集成8个、16个、24个甚至更多的处理器内核,服务器的每单位面积处理性能会大大提升,而用电量会大大减少。其实,在过去几年里,技术进步已经为数据中心带来了更好的每瓦特性能和每平方英尺性能。比如,2002年为了实现3.7Tflops的性能,需要25个机柜、512台服务器,占地1000平方英尺,用电128KW;而到2007年,同样是实现3.7Tflops的性能,仅需要一个机柜、53个刀片,占地仅40平方英尺,能耗只需21KW。

7)关注TCO和电费成本

这一点对于国内用户来说尤其重要,有些用户过于关注服务器设备的初期采购成本,而忽视了后期运营维护过程中的电力成本、管理成本。也许一台服务器运行三年所需的电费就可能超过你当初的采购成本。对于大型数据中心来说,电费更是成为相当大的负担,比如,上海超算中心一年的电费成本就超过400万元,中石油东方地球物理公司数据中心的电费更是超过一千多万元。但现实情况是,有些用户仍将机房用电仍然算作普通的办公费用,而不是独立的运营成本,这也限制了部分CIO对节能减排的积极性。因此,2008年,你最好算算你的服务器用了多少电费。

8)创新IT应用

IT的创新应用不仅仅体现了采用了新的多核服务器或是进行了虚拟化部署,也体现在其他方面。比如,一家企业通过使用数字可寻址调光接口(DALI),辅以精准的灯光控制软件,能够将电力消耗减少多达40%;也有的企业在办公楼里使用可编程的自动调温器,按照上下班的时间安排自动控制调节室内温度、电压和湿度等指标。相信在未来的几年里,随着更多智能化、节能化建筑的出现,IT在这方面的应用会得到迅速发展,这无论是对于节约成本还是减少碳排放都有相当好处。

随着能源问题、环境问题的日趋严峻化,我们每个人都应该想想:从技术上、管理上我们能够做点什么?这无论是从企业公民责任来讲,还是从降低成本的角度来看,都有重要的现实意义。2008年,相信这一话题会比以往更热。

#p#

数据中心外包九大要素

对于企业而言,一个数据中心外包项目短则3年,长则10年,甚至更长时间。为了保证数据中心外包项目的成功,企业CIO需要在考察数据中心本身安全的同时,考察数据中心外包服务提供商是否具有专业的服务团队、完善的服务能力和规范的运营服务管理体系,是否具有成功的服务经验,最后才是服务价格,只有这样才能使数据中心外包项目达到降低成本,获得高质量、高可用的按需服务能力,保障业务持续、高效、安全运行的目的。

数据中心本身的安全

第三方数据中心建筑物本身的物理安全和周边环境的安全是企业CIO选择数据中心外包时优先考虑的第一要素。其中,考察的要素包括建筑物的结构设计是否合理,抗震、耐火、防水、防雷、防磁等是否达标,周边环境如何,是否存在地震、海啸、台风等重大风险等,是否具有相应的应对措施。

服务体系和规范

服务体系和服务规范是否健全也是重要考量因素之一,目前,检验服务体系是否完善的标准包括ISO27001信息安全服务体系、ISO20000IT服务管理体系、ISO9001质量管理体系,BS25999业务连续管理体系等。这些标准分别从数据中心的安全性、可靠性、IT服务交付能力、IT服务满意度以及服务流程等方面对IT服务提供商进行了全方位考察。

服务经验

数据中心外包服务是一项专业性很强的服务,涉及诸多系统、流程和部门,因此要求数据中心服务提供商具有丰富的数据中心运营服务经验。

服务团队

服务团队的能力是数据中心外包项目能否成功运行的关键,数据中心外包服务过程中不仅需要经验丰富、技术娴熟的技术团队,同样需要全面、专业的运维服务团队。

财务稳定性

没有企业CIO希望自己所选择的数据中心外包服务提供商突然停业或陷入财务危机。因此,良好的财务状况是能让数据中心外包项目持续运营的保障。在决定将企业IT系统迁入第三方数据中心之前,应先审核服务提供商的财务状况。

专业服务能力

从万国数据服务有限公司(GDS)9年来的数据中心建设和运营管理经验来看,数据中心服务提供商的专业服务能力不是一朝一夕就能形成的,必须经过长时间的服务经验积累和服务体系完善才能逐步建立。

绿色环保

数据中心运营的成本中电费是非常高的,对于这一开支,不管数据中心是否外包,都会由企业自己买单。因此,需要重点考察第三方数据中心的规划、设计、运营是否合理,耗电量是否比较低,是否采用虚拟化、水冷等绿色节能措施。

高可用性

外包后,企业的服务器、关键系统和应用数据都位于第三方的数据中心内,因此,选择高可用性的数据中心非常重要,否则一旦产生系统错误或遇到突发灾难导致系统中断,后果不堪设想。从这个角度而言,第三方数据中心应当配备冗余的电力供给、制冷系统以及网络系统。

服务价格

聪明的CIO会从服务的可用性,服务经验、服务质量、服务能力、服务水平、服务体系等多方面来衡量价格是否合理,并最终有所取舍。

#p#

数据中心容易犯得十个管理错误

对那些认为自己的数据中心足够完美的用户来说,应该从本文中获得启迪。虽然你可能无法实现期望中的尽善尽美,但你可以改变数据中心管理的方法。管理一个庞大的计算系统并不是件容易的任务,但是通过更好的管理和适宜的规划能减少工作的繁琐和麻烦。以下是数据中心管理中应该避免的十大错误。

1.虚拟化部署不足

如果你管理的数据中心还没有部署虚拟化来节约金钱,那么显然你是落伍了。虚拟化技术能帮助你节约寸土寸金的机架空间。虚拟化还可以为那些不存在系统节约额外的制冷,能耗和服务费用。

2.没有使用云计算

与虚拟化技术类似,云计算要求你掌握公司或者用户的实际能力。亚马逊在线能提供适合随需能力需求的灵活性和扩展性。举例来说,使用Canonical公司的UbuntuLinuxServerEdition,你可以创建自己的私有云或者动态调整亚马逊在线的弹性计算云。

3.设计缺陷

数据中心的设计缺陷很难被避免,但是重新设计要比重头再建要便宜的多。一座有20年历史的数据中心看起来依然光鲜,但是已经不再符合当下的环保标准。你必须重新设计数据中心的电力设备来满足刀片系统的需求。你可能还得重新更换老化的制冷系统等,因为当下的服务器比他们上一代产品的制冷环境要求更高,效率也更高。

4.扩展性局限

“640K的随机存储器对于任何人来说都足够了”我们无数次听到据说是比尔.盖茨这样的言论,那大概是1981年吧?无论比尔.盖茨是否说过这样的话对今天而言都已经不再重要了。我们需要吸取的教训是当你构建数据中心时,要将摄氏温度调整为华氏温度:这样你考虑的数量就翻倍了。使用从摄氏到华氏温度的公式能为你的数据中心预留将来升级的空间。一座占地面积2000平方英尺的数据中心不够吗?应该有4032平方英尺取而代之。规划不足毫无疑问会浪费占地空间或者其他能力。

5.安全性放松

进入任何数据中心,你都会看到读卡器,视网膜扫描仪,循环锁,称重仪或者其他高科技安全系统。但是与那些严密的安全措施相比,你会发现一些关键的安全访问入口被绕过了。物理安全没有岔路可走。如果存在这种岔路,你的安全性就会大打折扣。

6.服务器管理偶发性

为了管理你的服务器系统,你需要物理访问或者远程进行管理吗?时下每台服务器系统在维护上通常都是用远程管理系统来完成。使用和激活亦是如此。对于每个进入数据中心的人来说,你可以会遭遇系统故障。错误的系统标识,错误的定位,误读的系统名等等。如果你配置物理系统时可以使用远程访问控制台就好的多。

7.整合遭遇问题

开展数据中心管理业务就是要最大化的减少机架或者机房内系统的数量。服务器整合就是实现这个结果的解决方案.2:1或者3:1的整合比例都是无法接受的。5%到20%利用率范围运作的物理系统可以轻松的将5台,6台或者更多的服务器整合到一台系统上。没有得到充分利用的系统会浪费机架空间,能耗和服务支持的费用。

8.过度冷却或者不够冷却的空间

你的数据中心温度是多少?你应该检查一下。如果你的数据中心温度在70华氏度以下,你就是在浪费金钱。服务器需要的空气流动超过他们对冷却温度本身的需求。在你的数据中心巡视一番。如果你感觉舒适,那么服务器感觉也比较舒适。没必要非得让你的数据中心员工感觉过冷或者过热。

9.动力不足的设备

关于数据中心有空间可用却动力不足的话题你听说过多少次了?动力不足的设备是规划不足的牺牲品。虚拟化会对此有所帮助。服务器整合也能起到一定作用。但是未充分利用的设备在短期内是比较突出的问题。

10.机架过于拥挤

如果你曾经尝试将服务器把机架挤的满满当当,你可能奢望自己成为万能的。你可能认为在系统之间留有间隙会导致低效和浪费,但是那些从事从系统中插入或者拔出组件工作的人可能要感谢你了。匮乏的规划会导致系统过度拥挤,这是没必要的。虚拟化,整合和更加高效的安排会缓解这个问题。服务器偶然的电源松懈导致的断电会让你明白在系统之间留一些间隙是有好处的。

【编辑推荐】

  1. Google到底有多少个数据中心?图文详解
  2. 看这些数据中心错误有多蠢!
  3. 搬次家扒层皮 老外谈数据中心搬迁问题(图)
责任编辑:景琦 来源: 机房360
相关推荐

2009-12-31 16:34:09

数据中心之变 机房

2016-11-08 15:16:20

2018-07-18 10:07:51

数据中心机房维护

2017-06-13 13:40:56

数据中心性能机房

2017-11-22 10:44:14

数据中心机房UPS

2015-06-16 15:25:34

数据中心数据中心优化

2020-11-19 15:25:03

数据中心机房网络

2022-11-25 10:19:30

数据中心

2011-07-12 10:59:17

数据中心机房

2010-11-23 14:09:39

数据中心托管

2015-06-25 15:59:54

数据中心机柜

2023-12-29 14:55:32

数据中心机房设备

2013-05-10 10:10:29

数据中心机房风冷却

2013-02-27 13:49:10

数据中心机房综合布线施工数据中心机房建设

2017-10-18 09:30:37

数据中心机房冷却

2016-07-15 17:02:20

无锡云计算大型数据

2017-03-13 10:34:21

2024-01-10 15:40:28

2018-06-13 11:12:10

数据中心机房报警

2016-01-26 10:15:34

数据中心
点赞
收藏

51CTO技术栈公众号