VMware首次引起数据中心管理者的关注是以Server Virtualization 1.0为开端的。回首那时,管理程序软件必须能够兼容现有的基础架构,否则就无法进行配置。随着VMware知名度的提高,优先权也发生了变化,我们开始过渡到Server Virtualization 2.0。VMware, Hyper-V和Xen服务器虚拟化发展到以数据中心体系架构为中心。数据中心管理者们突然需要其他的基础架构来配合服务器虚拟化软件的使用,否则他们就无法完成配置。毫无疑问,所有置身于这个领域的厂商目前都宣称可以和VMware完美结合,并且斥以巨资在全世界的VMworld大会上进行展示。
服务器虚拟化的前两个阶段帮助IT企业提高他们服务器硬件的利用率。Server Virtualization 3.0刚刚出台,是以服务器、存储、网络和交付基础架构的软件厂商在内的整个生态系统来定义的,而这些基础架构是与优化在虚拟机上运行的应用软件可靠性,虚拟化和安全性的服务器虚拟化平台结合在一起的。到Server Virtualization 3.0阶段的末期,IT企业将管理所有在每个虚拟机基础上运行的数据中心基础架构。让虚拟服务器软件和其他基础架构紧密结合在一起时应用软件编程人员的界面和软件开发人员套件关注的重点。举例来说,VMware公司提供的应用编程接口和SDK可以解决主机配置,虚拟化 管理和性能监控的问题,应对服务器硬件健康状况监控和存储管理的问题,扩展vSphere Client图形处理器,优化虚拟存储的访问和控制;从虚拟机的客户端操作系统获取统计数据以及常规管理任务的自动化。
如果你没有这方面的经验,你会发现很难把握到底什么基础架构会对你的服务器虚拟化配置影响最大,因为即使是打印机墨水的供应商都号称自己能让虚拟环境运行的更好。不过有一些产品在更紧密的结合后,会产生很大的不同。来自思科公司的负载平衡系统,Coyote Point和F5都是很好的例子。
对于可以支持HTTP和保证HTTP应用软件,FTP,电子邮件,DNS后者其他TCP,UDP协议的IT企业来说;通过7应用软件负载平衡和加速系统的第四层就是专门为了帮助IT企业为他们的用户和员工提供速度更快,更加可靠的经验而设计的。
在保证电子商务,金融和医疗等应用软件环境的安全性方面,领先的负载平衡去包括可以支持每秒超过10万次HTTPS交易指令的SSL卸载加速芯片集。你也可以使用负载平衡去来涵盖匹配文本负载平衡的规则,cookie,URL重新编译,从HTTP改为HTTPS,或者从URL改为其他形式,SSL卸载和认证管理,以及压缩引擎来减少网络应用软件的带宽利用率。
在虚拟服务器环境中,要跟上虚拟服务器的实时变化需要工作负载在服务器之间进行有效的分配。另外还必须根据服务器延迟进行分配。随着服务器性能的衰减,负载必须以非常透明的形式大幅分配给其他服务器。对于负载平衡器而言,管理这种变化是自动完成的。一旦服务器完成认证和配置,负载平衡器会自动将网络流量分配给虚拟服务器池。如果虚拟机池中的容量由于某些服务器必须要与其他繁忙的虚拟机共享这些容量而分配不均匀的话,负载平衡器能自动侦测分布不均的延迟,将新的流量发送给反应更快的服务器。
最先进的负载平衡解决方案包括可以允许VMware服务器来提供负载平衡预测能力的独特技术。这些负载平衡器使用定义明确的VMware应用编程接口来查询VMware Virtual Center来收集中央处理器负载,内存利用率和其他在VMware管理程序下运行的虚拟机其他状态信息。将这些信息与他们自己的网络性能统计数据结合起来,使用这些数据作出有关服务器可用性和负载的明智决策。举例来说,一旦达到了某种网络结果或者上限就能自动作出响应。或者你可以关闭或者开启VMware基于网络流量的服务器。控制基于网络流量的VMware服务器的能力可以帮助用户节约能耗,制冷和运行数据中心的成本。
数据中心需要基础的负载平衡来提供速度更快,更加可靠的互联网和应用软件使用经验。高级的负载平衡是能效型动态配置虚拟环境的重要组件。
【编辑推荐】