浅析云数据中心网络技术特性

网络
随着云计算、移动互联网、Web2.0等新业务的兴起,传统的数据中心已经无法满足。业界正掀起新一轮数据中心建设的高潮,新一代的云计算数据中心随之而产生。

随着云计算、移动互联网、Web2.0等新业务的兴起,传统的数据中心已经无法满足。业界正掀起新一轮数据中心建设的高潮,新一代的云计算数据中心随之而产生。网络是云数据中心的重要组成部分之一,云数据中心的网络架构必须具备五大新技术特性:100G以太网技术、浪涌缓存、网络虚拟化、统一交换、绿色节能技术。

100G以太网技术

带宽压力是云数据中心网络的核心问题。在数据中心,像视频点播、10G的FCOE、以及高性能计算这样的高带宽应用,都需要万兆以太网接口。最近两年正值数据中心高速成长的时期,随着服务器和接入设备上万兆以太网的普及,数据中心的网络汇聚层和核心层设备对100G以太网的需求越来越强烈。2010年IEEE正式发布40G/100G标准,这一标准的正式批准,为100G高速以太网应用,铺平了发展之路。100G网络时代的到来并不仅仅意味着端口、带宽速度的升级,不只是在数据传输速率上比10G快了10倍,更重要的是由此带来的功能上的极大增强和丰富。作为新一代的云数据中心,必将在其汇聚层或核心层采用100G以太网以满足应用需求,云数据中心将进入100G时代。

浪涌缓存

浪涌(一般网络条件下称为突发流量,即Burst)表示是瞬间的高速流量。这种情况在互联网企业承载搜索业务的数据中心中表现尤为明显。数据中心处理一次搜索业务,一般是由一个服务器发起,然后通过一系列算法向数据中心中保存有搜索信息的业务服务器发起搜索请求,这些服务器通常有上千台,然后上千台服务器几乎同一时间将搜索结果发回给发请求的服务器。这种流量模型是典型的多端口打一口的网络,在这样的数据中心中就会频繁出现浪涌现象。传统的数据中心网络采用出端口缓存的机制,使得所有数据流的突发在出端口处被缓存,缓存的大小即是网络***可能的突发值。

云数据中心应用的特点要求缓存要大,所以一般云数据中心的网络设备必须具备超大缓存(1G以上)。同时不再采用出端口缓存,而采用入端口缓存。入端口缓存结合虚拟输出队列(VOQ)技术,在每个入端口的方向配置大容量缓存,在出端口配置较小缓存,使用专用流量管理器件(TM)进行内部流量管理。采用Credit来控制每个端口入方向的数据向出端口的突发,每个出端口向其它端口分配Credit数量。当出端口在线速向外转发数据时,如果入方向过来的速度较快,在达到或超过出端口设定的突发门限时,出端口不再为入端口分配Credit,从而使得入端口的数据缓存在本地的大容量Buffer中,当出端口的排队下降到门限以下,继续向入端口分配Credit,使得缓存的数据得以继续转发。

这种浪涌缓存技术能够自动调节不同方向的瞬时流量拥塞压力,是当前云数据中心网络的主要应用技术。

网络虚拟化

传统的数据中心网络架构由于多层结构,安全区域,安全等级,策略部署,路由控制,VLAN划分,二层环路,冗余设计等诸多因素,导致网络结构比较复杂,使得数据中心基础网络的维护管理难度较高。云数据中心需要管理的网络设备会更多,必须引入虚拟化技术进行设备管理。通过虚拟化技术,用户可以将多台设备连接,“横向整合”起来,组成一个“联合设备”,并将这些设备看作单一设备进行管理和使用。用户也可以将一台设备分割成多个虚拟设备,这些设备之间完全独立,可以分别管理。这将极大简化云数据中心网络管理。

统一交换

云数据中心网络的性能要求超过常规应用数据中心,这样的要求使得网络平台构建上性能的考虑区别于传统的认识。云数据中心网络需要具备“统一交换”的无阻塞全线速交换架构。

线速指的是线路数据传送的实际速率能够达到名义值,比如千兆端口能够实际吞吐量到千兆。全线速指的是交换机所有端口能够同时达到线速转发,这个能力体现了交换机的性能。“无阻塞”全线速指的是交换的任意大小字节的报文均能够达到全线速的能力,所有端口都以线速接受侦,并能无延迟地处理。实现无阻塞全线速的架构就是统一交换技术。

传统数据中心网络的交换架构通过Crossbar高性能交换网实现,数据在Crossbar内部选路是固定的,同一数据流在内部的运转路径通过HASH算法确定。这样在特殊情况下,在交换不同阶层上仍会发生阻塞的现象。随着近年来应用不断丰富,业务规模不断扩大和实际带宽消耗迅猛增长,已经出现了传统交换架构在互联网数据中心难以满足性能需求的现状。统一交换架构在系统内部采用动态选路方式,业务线卡接收到的数据报文进行等长切片处理形成定长信元,每个信元加载动态选路的标准。当出现路径不可用或网板、线卡故障时,选路信息会动态改变,由硬件系统自动切换到正常的路径上。通过统一交换架构真正实现了无阻塞全线速的网络。

绿色节能技术

云数据中心的网络是数据中心中能耗的主要组成部分之一,只有通过降低网络的能耗才能提升云数据中心的运行效率。云数据中心网络必须采用绿色节能技术,网络设备消耗的功率是该设备内所有器件消耗功率的总和,选择低功耗的器件是实现节能降耗的源头,其带来的效果不仅仅是整机功耗简单累加后的降低,还将降低热设计的代价。网络设备的电源系统要采用完备的灵活电源智能管理,自动调节功率分配。云数据中心要采用具有绿色节能认证的网络设备。

在2013年中国电信、中国移动等企业的新一轮数据中心网络设备集采测试中,网络设备功耗将作为一项重要的测试指标,能耗过高的网络设备将出局。未来的云数据中心必将全部采用低功耗的网络设备,只有绿色节能的网络才是高效的网络。

网络部分虽然只占了整体数据中心的15%左右。但是由于越来越多的工作依赖于网络,这也促使网络技术得到了***的大发展,使得云数据中心网络具有的诸多区别以往数据中心的新特性。

因此入端口缓存机制下,各端口的数据在出端口拥塞时都能在本地缓存,因而缓存容量是与入端口数成正比的线性关系,这种线性比例的缓存能力,能够自适应余云计算的不定向浪涌流量,

对于设备商和广大运营商用户而言,100G网络还应该包括IPV6、网络安全以及网络虚拟化等全新的技术特征在其中,也就是说,100G作为新一代数据中心网络架构的重要环节,将在IDC内部掀起一场新的技术革命,更加绿色,更高效率的网络架构所替代。

IDC网络内部大量突发流量,运营商起码要实现100G的无阻塞交换,并具备大容量的缓存平台,云化IDC的最终目的是提高设备的利用率和业务的灵活性,而IDC所具备的这种弹性,可扩展能力都需要借助IDC网络来实现,而网络的统一交换包括FCoE、CEE等技术,则是为了更好地支撑异构计算、存储等资源的整合。

网络的交换容量和网络浪涌的吸收容量即是云计算(或大型数据中心)网络的性能关注点要同时关注的两方面。

超线速:如千兆端口能够吞吐的流量超过一千兆(一般也就超出一点点)这种交换机与标准线速设备对接后容易产生丢包甚至将标准交换机“堵死”,在数据中心环境下极少数情况也允许满足超线速的组网,知识对交换机有特殊要求。

责任编辑:遗忘者 来源: 企业网
相关推荐

2019-03-29 14:45:29

数据中心容器网络技术

2015-07-16 11:14:59

Google数据中心网络技术

2012-01-12 09:36:18

数据中心网络技术

2018-03-22 12:31:40

2018-01-08 23:13:01

2014-02-14 09:22:00

数据中心网络业务隔离

2018-11-27 13:42:23

数据中心大二层网络VXLAN

2013-05-07 10:07:06

数据中心存储网络FCoE

2017-02-24 08:30:50

网络设备技术

2013-01-07 10:39:39

网络技术数据中心云计算

2017-08-04 14:57:00

数据中心传统网络技术

2018-04-25 15:50:50

2021-01-08 14:55:03

RDWARoCE数据

2013-05-23 14:51:22

机房布线机房布线技术布线标准

2012-11-08 17:14:34

思科网络技术数据中心

2017-12-26 14:59:08

数据中心数据流动数据

2022-04-23 10:05:49

TSN时间敏感网络车载网络

2017-07-20 22:10:19

数据中心虚拟机迁移

2014-06-09 17:14:15

数据中心

2023-08-10 14:55:45

云计算数据中心
点赞
收藏

51CTO技术栈公众号