随着存储和数据的聚合,网络人员必须以新的方式来考虑网络连接。“您必须认识到您将会传输更多的流量,并且它对延迟更加敏感,而且对可用性也非常敏感,”Foskett说。“您必须保证网络不会中断。如果您失去了数据中心,那么人们将很难接受。如果你失去了存储网络,那么服务器也将崩溃。”
而且,在线技术研究社区Wikibon的首席研究贡献者Stuart Miniman指出,如果网络专业人员在他们的生产网络中传输存储流量,那么他们也要熟悉存储专业人员的管理问题。
“存储人员真正关心的是数据可用性,以及保证不会出现数据丢失,与之相反,网络管理员真正关心的是保证连接、带宽和回弹性的存在,”Miniman说。
当存储人员和网络人员一起工作时,这些不同的心态会造成文化冲突。现在他们必须找到共同点。
“我们听到过有一些人从未聚合过,因为他们的网络人员和SAN人员相互之间根本不交流,” 阿拉巴马大学伯明翰分校的IT基础架构服务执行主管Bob Cloud说道。“我们比较特别,因为我带领的团队中既有网络人员,也有SAN人员。”
Cloud安排他的存储和网络团队一起在数据中心实现基于FCoE的网络聚合。作为使用Brocade的Ethernet和Fibre Channel产品的客户,从去年九月份开始,Cloud就选择尝试使用用Brocade技术实现的FCoE。
他在一台服务器机架上引入了两台冗余Brocade 8000顶级机架交换机。机架中的服务器是通过FCoE与交换机连接的。然后这两台8000交换机通过Fibre Channel连接将存储流量发送到一台Brocade DCX存储控制交换机,并通过Ethernet上行链路将生产数据流量发送到上游Brocade FastIron SuperX交换机。一开始,存储和网络团队不清楚谁应该负责管理Brocade 8000 FCoE交换机。
“我认为在交换机的拥有者和使用者是谁的问题上很自然会存在一些争议,”Cloud说。“但是我们很快就解决了这个问题,因为在我们的数据中心内,网络小组和SAN小组都是向我报告的。我要求他们解决这个问题,因为现在是试验阶段。试验的目的就是要解决这些组织问题。”
为何要进行数据中心聚合?
围绕数据中心聚合的宣传,以及选择FCoE还是iSCSI之间的斗争会使人忽略核心的问题:最终所有的存储都将通过生产环境的Ethernet网络传输,而工程师必须为这个转变做好准备。
听供应商的介绍会让人心烦意乱,因为他们讲的每件事都是从自己的角度出发看问题。Cisco Systems和Brocade是FCoE的主要推动者。而同时,Dell告诉它的客户在Ethernet上使用iSCSI是聚合发展方向。诸如Intel这样的芯片供应商和诸如QLogic和Emulex这样的网络适配器供应商则都积极准备,以支持企业选择的任意一种技术。
企业必须忽视供应商的宣传,相反要考虑他们现有的基础架构投入,以便决定选择哪种技术。他们也必须理解网络聚合可能是小规模地增长,不可能在短期内超过机架级的增长。
“一般当客户来找我们时,他们已经选择了一种聚合类型,而我们必须让他们了解到实际上还有很多不同的选择,并且它们不是互相排斥的,”大型系统集成商的数据中心实践技术解决方案架构师Joe Onisick说道。
为什么需要数据中心网络聚合?
随着10Gigabit Ethernet (GbE)、服务器虚拟化和其它技术的广泛应用,企业必须认真处理网络聚合,以便控制资金和运营花费,并降低复杂性。
“如果您在一个机架上部署了很多服务器,特别是VMware机架,那么您可能需要为每台服务器配备10条Gigabit Ethernet铜线连接和2条Fibre Channel连接,”位于田纳西州的连锁医院Wellmont Health System的技术总监Darren Ramsey说道。“假如您的机架上有10台服务器,那就需要120条电缆。这要耗费大量的人力,是非常不灵活的布线,并且会产生大量的热量。同时,交换机端口也不便宜。”
在他的数据中心中,Ramsey最近通过使用Cisco的Nexus线在8个虚拟化Dell服务器机架中引进了网络聚合。他将每台服务器上的10个NICS和2个主线适配器(HBA)合并为2个QLogic聚合网络适配器(CAN),从而为冗余的顶级机架Nexus 2232 Fabric Extenders提供2条10 GbE FCoE连接。全部共8对Nexus 2232 Fabric Extenders将上行流连接到2台冗余的Nexus 5020交换机上。存储和数据流量通过FCoE聚合到Nexus 5020上。这样,存储流量就可以返回到本地Fibre Channel,然后连接到存储区网络(SAN)中的一对Cisco MDS 9506 Director交换机上。生产数据流量会继续连接上行到Catalyst 6509交换机。
“FCoE优化并减少了我们所需的Fibre Channel端口数,因为所有的主机现在都直接在Nexus上运行,”Ramsey说道。“我们不再需要从服务器直接连接到MDS上。同时它还减少了每个机架的复杂性。当我们在每台服务器上使用2条10 Gigabit连接时,我们就能够在该设备上运行更多的虚拟机。”
网络聚合:是iSCSI还是FCoE?
FCoE占据了所有数据中心网络聚合宣传的重心,但是很多行业资深人员表示,iSCSI是另外一种可行的选择。作为一种基于IP的存储网络协议,iSCSI可以很自然地运行在Ethernet网络上。大多数使用iSCSI的企业目前都通过他们自己的独立网络来运行存储协议的,因为聚合并不适合Gigabit Ethernet。但是随着10 GbE交换机价格的下降,基于iSCSI的聚合也正变得越来越符合现实要求。
“可以肯定的是,转到iSCSI比到FCoE更简单一些,”存储博主及IT咨询师Stephen Foskett说。“有了iSCSI,您就不需要使用数据中心桥接、新NIC、新布线或者新交换机。”
最终企业的现有基础架构和存储需求将决定网络聚合方法的选择。
“如果客户还不准备部署Fibre Channel,那么我很少会鼓励他们采用FCoE,”Onisick说。“如果他们需要非常高的性能和非常低的块数据吞吐量,那么FCoE是个好方法。如果他们能够容忍稍微高一点的延迟,那么iSCSI会很好。而且,如果他们没有块数据方面的需求,那么NAS(网络附加存储)和NFS(网络文件系统)是好的选择。”
对于Ramsey,iSCSI不是一种可行的方法,因为Wellmont有高性能方面的需求。
“我们用过iSCSI,但它仍然是通过TCP运行的,而且您需要处理缓冲、流控制、开窗口或丢包和排列问题,所以我们不会使用iSCSI。FCoE的优点是:它不运行在3层协议上。它是原生2层协议帧中的Fibre Channel数据包封装,而我们所做的就是在服务器与Nexus 2232和Nexus 5020之间传输这个数据包。”