最初的数据中心属于托管型,用户需要自行购买主机安装,然后将服务器寄托至机房,并且使用期间对设备的监控和管理也是由用户自己负责。数据中主要为使用者提供IP介入、电力供应和带宽条件等服务。
后来,跟随着互联网进军的大旗,涉及到虚拟网络的服务也渐渐成熟起来,逐步进入了主机租用的时代,同传统服务相比这一时期的数据中心不仅向用户提供管理服务,同时向用户提供服务器和相应的存储设备,所以用户不用再自行购买设备就可以使用数据中心所提供的空间和计算环境。
服务器闲置率过高是普遍问题
现代数据中心同传统相比变得复杂的多,同时也面临一些值得思考的问题,最可怕的是这一问题过于普遍对企业来说它已变得不再是“问题”数据中心服务器过高的闲置率。
每个大型数据中心的背后都有一批乐此不疲奋战的技术人员,对于他们来说这是一个再简单不过的问题,但是往往被忽视或是从没有关注过这一点,因为他们都把视线死死地定在性能上,当数据处理过载或是运载时间出现滞后的现象,他们最常见的做法是购买更多的主机来去分担这些过载的数据,但其实这些数据加起来也只是小部分而已。
当然,增置主机当然要比花更多的时间和脑细胞儿用在如何使主机满载工作要容易的多。
虽然,目前也会有对数据中心性能效率的评估,但仍没有谈到对服务器内部利用率的统计即数据中心中有多少服务器在处理任务又有多少服务器在闲置中。
不过,评估中对数据中心电力的使用率的统计到是很好的给与企业一种警示,看着高数额的电费账单试想自己的服务器中也许有很多台都是空跑着机器,却和其他“辛勤”工作的主机耗费着同等的维护费,那这么糟糕的事实一定会使你凌乱的。
在市场上,很多企业在对待此问题上都保持了沉默,如亚马逊、微软都在谈到对自己服务器性能力利用率的信息时都以商业秘密为由而拒绝回答。
在走访国内市场时,大部分的相关负责人对服务器效率监测指标表示抵触。不过这种情况也不难理解,任何一位员工肯定不希望上司知道如此贵重的设备利用率十分低下的事实。
但是,另一方面市场信息收集不全,业界无法深入的了解数据中心产业的整体情况,更是无法找到有效解决服务器效率低下的问题,从而导致问题从一个简单的状态演变到如此复杂。
历史上麦肯锡与火狐对关于服务器利用率的问题通过客户做过调查,并均得出相似数据,一致认为服务器的利用率基本在6%~11%左右,但火狐相关负责人对这一问题表示并没有想象中的那么重要,他们的大部分应用程序主要是消耗RAM或存储容量,而非CPU只要RAM、存储空间以及网络输入或输出处于忙碌状态,即使CPU任务处理处于闲置当中,我们也不会感到担心。
所以,他认为在衡量服务器利用率的过程中,CPU使用情况并不是唯一的判断标准。
但实际上,通过Mozilla数据中心对一千台服务器利用率情况的调查后得出,网络输入/输出利用率为42%,这一数字并没有火狐想象的那么高。
虚拟化技术与云计算可以帮助降低服务器闲置率
所以,一小部分注意到该问题的厂商开始寻求一些措施用以提高自身服务器利用率。而目前普遍用的方法一是通过应用像VMware这样厂商提供的虚拟化软件,二是使用云计算技术提升服务器CPU的利用率,可将利用率提升30%~40%左右,据悉谷歌数据中心甚至可达到50%.其中,利用软件来提升硬件使用率的效果是否显著还未确定……
也许是看到了云计算的优势与发展前景,云数据中心的建设也是受到国家的大力推动,但在云计算与数据中心的结合下,也应该铭记云数据中心建设的最终目的还是要满足客户的需求即以市场为驱动,应用服务为导向,软件为工具。
不要在提升了服务器利用率的同时,造成整个数据中心的闲置。合理的做法是建设大型数据中心前考虑为谁提供云计算技术服务、云计算市场的需求量有多大,再来规划数据中心。
所以,数据中心的建设无论对内还是对外都要考虑详尽,才能发挥与云计算结合的最大优势。