先来看看网络与存储的融合,传统的数据中心中存在三张网,数据中心的前端访问接口通常采用以太网进行互联而成,构成了一张高速运转的数据网络。数据中心后端的存储更多的是采用NAS、FCSAN,服务器的并行计算则大多采用Infiniband和以太网,多张网络的并存提高了建设和运行管理的成本,为了适应云计算成本的需要,网络的三网融合就成为了必然趋势。在数据中心网络融合方面相关的技术标准,厂商也业界也基本达成了共识,比如确定的40G/100G技术标准,FCoE以太网光纤通道协议和DCB数据中心桥接(DataCenterBridging),虽然这些重要的网络融合标准和协议已经被广泛的使用在现有的产品中,但产品的成熟和大规模商用,市场还要等待一段时间。
在数据中心内部横向流量的承载方面。数据中心网络中原本分为三层:核心层,汇聚层和接入层,万兆及以上的以太网交换机有较高的无阻塞吞吐量,允许用户把服务器机架和柜顶式交换机直接连接到核心网络,从而不再需要汇聚层。再者在云计算数据中心中,出于虚拟机热迁移的需求,如果汇聚层仍然采用二层网络组网,二层网络的规模将大大增加,原有的STP生成树协议将造成网络链路的大量浪费,这就是为什么传统的三层网络一直运行良好,但在今天面临服务器整合、虚拟机时则显得有些过时的原因。根据这样的需求,主流的网络设备厂商都提出了针对大规模二层组网的方案。两大标准组织IETF和IEEE分别提出了TRILL和SPB标准技术,主流的网络厂商,也根据自身技术的发展路线加入了不同的阵营,以推动相关标准的制定和商业化进程。而它们的总体思路相近,即通过对IS-IS协议的拓展,在二层转发中进入路由技术,实现对网络链路的有效利用,以简化网络,支持虚拟机的移动性,降低运营成本。目前大二层网络技术标准的博弈逐渐明朗,业界已经对通过TRILL标准实现大二层组网逐渐达成了共识。
最后,我们一起看看虚拟机流量的接入与控制的问题。由于虚拟机的引入,虚拟机间流量的交换深入到了网卡内部进行,使得原来服务器与网络设备之间清晰的网络界限被打破,于是在数据中心的服务器的网络接入层出现了新的虚拟网络桥接层,通过软件的VSwitch实现。虽然实现简单,但其占用CPU资源导致了一系列的问题;此外也可以借助SR-IOV特性的网络来实现硬件的虚拟网络桥接,CPU开销得到了改善,但虚拟机的流量管理等问题仍然存在。于是争论又来了,针对虚拟网络交换出现出现了众多的技术体系,有的目前仍然在不断的进化过程中,但有的已经被叫停,它们包括802.1Qbg,802.1Qbh,802.1BR和思科VN-Tag.目前802.1Qbg标准已经获得了主流厂商的支持,并可提供基于草案标准的解决方案,802.1Qbh目前已被叫停,802.1BR处于起步阶段,思科VN-Tag是其私有的技术标准。