五个被忽视的vSphere 5特性

云计算 虚拟化
vSphere的每次发布都和圣诞节有相似之处:我们迫不及待地打开我们的礼物,查看里面究竟装了什么。在好奇心过后,我注意到vSphere 5一些从未讨论过的新特性及增强功能可能将会改变我们设计与管理VMware基础设施的方式。

  Storage DRS以及可扩展性的增强占据了vSphere 5报道的头条,但实际上VMware vSphere 5一些几乎不为人知的特性可能会对你的基础设施产生更大的影响。

  vSphere的每次发布都和圣诞节有相似之处:我们迫不及待地打开我们的礼物,查看里面究竟装了什么。在好奇心过后,我注意到vSphere 5一些从未讨论过的新特性及增强功能可能将会改变我们设计与管理VMware基础设施的方式。

  让我们一起来看一下新VMFS(虚拟机文件系统)、重新设计的Storage vMotion以及vSphere 5的其他一些几乎不为人知的特性及增强功能。

  VMFS 5

  使用VMFS 5能够创建2TB的虚拟磁盘,但是创建新的VMFS卷只能使用1MB的块大小。多年以来,VMware管理员必须处理各种各样的块大小并限制虚拟磁盘大小;而VMFS 5解决了大量相关的问题。

  从VMFS 3升级至VMFS 5很简单,而且不会对数据造成破坏(在以前,如果从之前版本的VMFS升级,将破坏数据卷上的所有数据包括虚拟机),而且升级至VMFS 5同样可以保留之前配置的块大小。

  虽然VMFS 5支持更大的块大小,但是特定的vStorage API特性要求数据存储具有相同的块大小。其中一个特性就是复制-卸载(copy-offload),该特性在hypervisor和阵列上卸载与存储相关的特定功能。因此如果你的VMFS 3没有使用1MB的块大小,那么最好创建新的VMFS 5数据卷。

  VMFS 5同样与通过多个LUN组合而成的容量高达64TB的LUN兼容。

  SplitRx模式

  vSphere 5很有趣的网络特性之一就是SplitRx,该特性是接收、处理从其他网络设备发送到网卡的数据包的新方法。

  在以前,虚拟机在单个共享的环境中处理网络数据包,这个过程可能会受到抑制。现在能够将接收到的数据包拆分到多个独立的环境中进行处理(想象一下,以前数据包必须在一个通道上等待,但是现在有了一条专用的VIP通道直接访问虚拟机)。

  使用SplitRx模式,你可以指定哪块虚拟网卡在单独的环境中处理网络数据包。但是你只能在使用VMXNET3适配器的虚拟网卡上启用SplitRx模式。

  但是vSphere 5的这一特性同样增加了主机的CPU开销,因此在部署时需要引起注意。VMware建议在多播工作负载下也就是同时具有多个网络连接时使用SplitRx模式。

  网络I/O控制

  在vSphere 5中VMware 同样增强了网络I/O控制,这样你可以划分虚拟机流量的优先级。VMware在vSphere 4中引入了网络I/O控制,允许创建资源池并为主机特定的网络流量,比如NFS、iSCSI、管理控制台以及vMotion设置优先级。但是虚拟机的所有流量都是在一个资源池中,因此你不能为单个虚拟机的网络流量设置优先级,确保关键的工作负载能够使用足够的网络带宽。

  然而,在vSphere 5中这个问题得到了解决。新的资源池基于802.1p网络标记。现在你可以创建多个资源池,为运行在一台主机上多个虚拟机分配不同的网络带宽。这一特性对于多租户环境或者在主机上混合了关键应用及非关键应用的情况下非常有意义,能够确保重要的虚拟机获得足够的网络资源。

  Storage vMotion功能增强

  vSphere 5重新设计了Storage vMotion,使其更有效率。在Storage vMotion过程中,vSphere 5不再使用变化块追踪(Change Block Tracking)记录磁盘的变化。相反,Storage vMotion执行镜像写操作,这意味着在迁移过程中所有写入操作都同时写入到源磁盘和目标磁盘。为确保两端的磁盘保持同步,源和目标磁盘同时对每次写入操作进行确认。

  VMware同时对Storage vMotion进行了另一个巨大的改进:现在你可以在线迁移具有活动快照的虚拟机,这在vSphere 4中是不允许的。这是个很大的改进,因为Storage vMotion操作将在vSphere 5更加变得通用。而且新的存储分布式资源调度特性将定期在数据存储之间迁移虚拟机,重新分布存储I/O负载。

  vMotion功能增强

  vSphere 5的很多特性都依赖vMotion这一核心技术,VMware在vSphere5中增强了vMotion的性能以及可用性。

  也许最大改进就是执行vMotion操作时能够使用多块物理网卡。现在VMkernel将使用分配给VMkernel端口组的所有物理网卡自动对vMotion流量进行负载均衡。现在vMotion能够使用多达16块的1GB物理网卡或者多达4块的10GB物理网卡,这将大大加快迁移速度。

  由于引入了城域vMotion(Metro vMotion),vMotion将能够更好地进行扩展。Metro vMotion将VMkernel接口与主机之间可接受的往返延迟增加到了10毫秒,而在调整之前,所支持的最大延迟仅为5毫秒,这在快速局域网中限制了vMotion的可用性。

  Metro vMotion在主机之间仍然需要快速,低延迟的网络连接,但是它允许在更远的距离之间比如城域网中使用vMotion。在城域网中,主机通常位于不同的物理区域。

  由于在城域网中不同站点之间的距离通常少于100英里,所以网络延迟足以支持vMotion。但是跨越更远距离的网络通常会产生更多的网络延迟,所以仍不能使用vMotion进行迁移。

责任编辑:何巍 来源: TT中国
相关推荐

2023-11-06 18:02:28

Linux实用命令

2011-05-13 10:47:01

2009-10-29 16:41:23

2014-04-10 16:33:48

iOS 7新特性

2010-01-28 10:11:18

IT金饭碗

2023-08-08 14:28:02

2022-07-18 13:37:10

网络安全数据泄露

2013-08-01 13:55:55

Android 4.3新特性

2023-11-07 12:25:22

2019-11-04 09:32:50

云计算数据中心技术

2013-01-22 09:21:28

云计算成本私房云

2019-08-30 12:01:48

2012-11-28 15:53:16

灾难恢复

2017-02-08 09:51:27

JavaScript细节

2011-12-26 10:08:55

虚拟化VMware vSph网络功能

2010-01-22 15:45:57

局域网交换机

2023-10-24 18:05:00

2023-08-04 14:31:43

Python核心项目

2024-02-29 07:48:55

Python编程语言上下文管理器

2011-01-14 15:14:58

点赞
收藏

51CTO技术栈公众号