随着技术的进步,数据中心的需求也逐渐增加。但是存储网络中有一个瓶颈,会成为服务器虚拟化使用的障碍,影响集中化虚拟机镜像、快照、虚拟桌面实例等内容的能力。
现在,基于以太网的存储网络iSCSI相对于传统的光纤网络来说,已经成为了一个可靠经济的替代品。但是如果IT部门没准备好,配置和性能还是会成问题。现在我们就看看iSCSI的一系列最佳实践,好让业务配置iSCSI时能起个好头。
把网络升级到千兆以太网,或者更快。10/100 Mbps的以太网离我们已经很远了,几乎所有的服务器、交换机和数据中心基础架构都支持千兆以太网(GbE),这对于iSCSI来说应该是最小的网络带宽要求。10 GbE更适合,能够减轻在同一个局域网内存储、用户流量和应用的带宽负担。查看一下网络架构,修复一下变慢的服务器,看看在忙碌的网络工作中是不是有时间配置10 GbE。
当千兆以太网配置好了,可能要用多服务器级别的网卡,提供应用和多种虚拟化负载需要的带宽。当10 GbE能用在iSCSI配置中,性能也会因为优化磁盘分段、格式化等等更加偏重于存储的工作而提升。
升级网络布线以支持局域网。铜缆以太网布线是最简单最广泛也是最便宜的网络布线方法。但是GbE和10 GbE对于铜缆要求很高,所以布线对于网络架构来说十分重要。
技术上来说,GbE可以用Category 5e(Cat5e)和Category 6(Cat6)铜缆布线,而10 GbE则要55米多的Cat6,,或者Cat6a和Cat7.低等级的布线可能不支持更快的以太网,或无法达到其最快速度,所以升级布线对于局域网整体速度提升是有好处的。
为了回弹性,使用存储fabric架构。考虑评价iSCSI网络架构时的存储网络回弹性。如果需要回弹性,考虑fabric的网络设计,将局域网内冗余的网络适配器、交换机等设备内部互连。目的是消除网络内的单点故障,否则可能会切断存储启动器和目标的联系——而这对于企业应用是致命的。那些非必要的服务器可能受益不多,但是为回弹网络投入对于业务关键的服务器和负载来说是值得的。
考虑iSCSI的网络适配器。传统网络适配器会影响大部分处理器的开支。但是现在的多核处理器就不用太担心这,但是减轻处理器开支并提升iSCSI性能的技术还有,特别是在考虑到同一个局域网存储和非存储流量时。
TCP/IP的卸载能力并不是新功能,本质上来说卸载是实现网络适配器的硬件上的TCP/IP堆栈减轻处理器的任务。很多现在的网络适配器使用最近的Microsoft TCP Chimney卸载架构(支持所有版本的Windows Server 2008),能够处理IPv4和IPv6链接。但是TCP Chimney可能不兼容Hyper-V。TCP/IP卸载功能网卡适用于GbE和10 GbE,还能加速所有种类的网络连接。
相似的是iSCI的网络设备的卸载能力,包括它们自身专用在处理流量的适配器上的iSCSI生成器硬件。
iSCSI的巨型帧。使用支持巨型帧的网络设备(适配器、交换机、路由器、存储等等)。正常的以太网帧,除了开销的以太网帧以外,还压缩了一个1500 byte有效负载。开销的以太网帧帮助系统在以太网帧损坏时,分类和整理以太网帧和需求传送。结果是大量独立以太网帧可能需要在网络中转换数据。
巨型帧允许以太网帧中有更多数据有效负载,典型的巨型帧能每帧转换4000、9000甚至14000 byte的数据。这意味着开销更小,数据交换更高效。但是网络中每个物理和虚拟因素必须支持同样的巨型帧大小。如果不这样,不合规的因素应该升级以达到端对端的兼容。
采用Receive-Side Scaling技术。你已经发现TCP/IP成为处理器的一项任务,但是额外的问题是TCP/IP使用相同的处理器内核,而不把负载分散在多核。这是因为TCP/IP的遗留设计问题。RSS技术用在网络适配器上,平衡网络帧,就能解决这个问题。这不是个关键技术,但是是减轻处理器负担的最佳实践。
隔离存储和局域网流量。尽管iSCSI能让存储和常规局域网流量分享同样的物理网络,有的企业可能还是选择使用虚拟局域网隔离存储和非存储流量,或者隔离物理网络。这对于GbE局域网来说特别重要,但是对于所有10 GbE网络来说就未必了。
比如说,虚拟局域网允许单独的物理网络隔离成两个或者更多虚拟网络。这是个理想的方法来隔离存储流量和非存储流量,确保存储流量旨在服务器和存储子系统可用。
也可能创建一个分离的物理局域网专门给存储流量使用。这还包括隔离的网络适配器、布线、交换机等等。所以这是最费钱的,因为物理设备都得再买一份,但是这能把所有的网络带宽提供给存储,同时安全性最高,因为存储和非存储数据不会混在一起。