移至10Gb以太网 实现数据和存储网络融合

网络
10GbE以太网(GbE)正变得越来越普遍,至少在数据中心是这样的。我们知道,从10Mbps向100Mbps高速以太网转变和从高速以太网向千兆以太网转变的模式是一样的:数据中心和网络经理一开始只会安装昂贵的光纤端口来改善交换机之间存在的瓶颈。

我们知道,从10Mbps向100Mbps高速以太网转变和从高速以太网向千兆以太网转变的模式是一样的:数据中心和网络经理一开始只会安装昂贵的光纤端口来改善交换机之间存在的瓶颈。随着技术成本的降低,它们也开始用来连接服务器了。***,这种高性能的连接逐渐得到广泛的应用。但是,之前的以太网转换主要是出于速度方面的考虑,而移植到10 GbE以太网则需要考虑更多方面。

目前,大多数数据中心都运行着多个不同用途的网络。服务器通过专用光纤通道网络访问存储阵列,而用户则通过分开且独立管理的以太网网络来访问同一个服务器。以太网网络可以进一步细分为——通过物理方式或者虚拟LAN——用户接入、管理、安全性和备份等。大多数运行VMware、Xen或者Hyper-V虚拟软件的虚拟服务器主机都必须连接到多个诸如此类的网络。这意味着每台服务器主机的每个网络都具有一个1GbE端口冗余对。根据对数据中心经理的调查,每台虚拟服务器主机的平均以太网连接数为6到10之间。

随着可用带宽的增多,只需要一对10GbE以太网连接就能够满足一个一般虚拟服务器主机的所有输入和输出(I/O)需求。但是网络和数据中心经理所面临的挑战并不仅是提供带宽。他们还必须确保网络上的每个系统、功能和应用程序都具有所需要的带宽数据和网络服务质量,以便获得所要求的交互操作性以及避免出现瓶颈。

10GbE以太网支持数据和存储网络融合

大多数关于10GbE以太网的争论都是关于它支持数据和存储网络融合的能力。在过去的10年中,光纤通道存储网络(SAN)的平均带宽已经增加到4或8Gbps,而iSCSI(Internet Small Computer System Interface) SAN一般都运行在1 GbE以太网上。更值得注意的是,行业所开发的SAN管理工具虽然不适用于iSCSI,但是它能够为管理员提供光纤通道网络的可视性和可控制性。

Fibre Channel over Ethernet (FCoE)协议允许IT组织将SAN和数据流量融合到10GbE以太网,保留了光纤通道的安全性和管理模块。FCoE可以将光纤通道协议(FCP)数据包封装到以太网帧中,这样一台服务器可以通过一个以太网连接来访问它附加的光纤通道SAN存储。

FCoE的设计者明确地规定FCP数据包应该如何封装到以太网中,但是这其中仍然有一个突出的问题有待解决。以太网和光纤通道处理网络拥塞的方式是非常不同的。光纤通道设备会在真正传输数据之前使用缓冲区计数协商它们打算通过一个连接发送的数据量。发送者在接受者表示具备足够用于存储数据的内存之后才进行传输。另外一方面,以太网系统则是直接发送数据。如果线路过于繁忙,那么在另一端交换机的内存便会由于太满而无法接收新的数据,从而导致丢包。

通过数据中心桥接(DCB)解决丢包问题

按照一般的实现方式,其内在的问题是光纤频道缺少一个恢复机制来重新传输所丢失的数据包。而实现这样一个机制将增加一些不可接受的存储流量延迟时间。因此,FCoE在设计上采用了一系列针对以太网的拥塞管理优化机制,即所谓的数据中心桥接(DCB)。

DCB最重要的新特性是按优先级暂停。这种功能允许以太网交换机告诉服务器停止发送低优先的数据,直到它将内存中某些数据清除,而不是等到它出现缓冲池溢出和丢包问题时才处理。可能的优先级有8个,FCoE可以使用***的优先级,因此存储数据即使在繁忙的网络时段也能够正常传输。丢包DCB实现也可以提升其他协议的性能,如iSCSI。

虽然FCoE通过无处不在的以太网连接来发送存储流,但是组成该网络的交换机必须包含具体的FCoE支持。有一些交换机,如Cisco Nexus 5000和Brocade 8000,在设计上是位于每个服务器机架顶部的,而且还包含了用于连接现有SAN的光纤通道的端口。支持FCoE的交换机与其他支持CDB的10 GbE交换机在成本上是相当的,但是设备供应商会对FCoE支持功能收取额外的费用。目前不需要FCoE功能的企业可以将它们作为标准的***机架交换机来使用,在将来增加SAN支持。

FCoE支持者希望保留尽可能多的光纤通道体验,因此他们建立了聚合的网络适配器(CNA),它使用以太网作为数据网络,使用单独的光纤通道和管理软件来传输FCoE流量。CNA允许宿主操作系统,或者虚拟机管理程序查看各个存储和数据连接,而存储管理员可以查看他们所习惯使用的界面,例如QLogic SANsurfer或Emulex ONEconnect。CNA卸载了服务器主处理器中的FCoE协议过程,或者某些iSCSI。这在一般的8核服务器上可以节省3%到5%的处理资源,虽然这个比例不高,但它是可以叠加的。

开通多路径网络

具备10GbE以太网功能的交换机也可以实现2层协议多路径技术。传统的以太网交换机使用生成树协议来避免网络循环,因为其网络广播和其他数据包可能会堵塞网络。生成树的实现机制是两台交换机之间只启用一条且唯一的路径。因此,如果您的***机架交换机到您的核心交换机之间有两条上行链路,那么生成树会禁用其中的一条。

2层多路径技术使用了TRILL(Transparent Interconnection of Lots of Links)协议来学习网络上一个点到其他位置的所有路径,并且为每个数包选择***的发送路径。基于TRILL的网络并不需要采用生成树网络的等级分层机制(例如,边缘、聚合和核心),同时可以在任何类型的网络或者结构上进行连接。它们也可以尽可能地使用所有连接,从而增加任意两台交换机之间可用带宽。

很明显,我们正在进入10GbE以太网数据中心网络时代。随着更高速度以及诸如DCB和TRILL新特性的出现,我们可以开发更大、更快和更有弹性的网络,它们不仅能够传输传统的数据流量,也可以通过FCoE实现存储网络。设备制造商仍然处于推出新产品的初期,而额外的功能和特性仍然需要继续开发。您在数据中心网络中投入实现这个变革的时间肯定会收获相应的回报。

责任编辑:佟健 来源: TechTarget中国
相关推荐

2023-12-27 18:50:26

2011-01-24 13:32:16

10GBe10G以太网数据中心

2011-02-14 09:29:45

10Gb以太网10Gb以太网

2009-07-03 18:46:00

10Gb以太网双绞线

2010-02-25 21:14:20

10Gb以太网

2011-07-25 09:56:38

10Gb以太网40Gb以太网以太网

2010-07-19 11:37:09

FCoE

2009-02-19 10:18:32

FCoE增强型以太网以太网光纤

2013-01-21 10:15:21

以太网存储网络

2010-01-21 15:22:47

10Gb以太网交换机

2023-08-14 10:35:19

以太网局域网

2020-04-23 16:25:04

以太网800Gb技术规范

2011-07-19 10:49:34

FCoEiSCSI以太网

2018-03-06 09:15:01

光纤太网存储

2013-02-20 15:23:23

2019-08-05 09:28:36

数据中心以太网光纤

2014-06-10 15:52:23

云网络以太网NetEvents

2015-07-16 10:34:04

网络设备服务器

2011-08-03 09:06:29

苹果云存储iCloud
点赞
收藏

51CTO技术栈公众号