早在几年前,选择何种协议来连接计算机到网络根本不需要纠结。中等规模数据中心的服务器使用以太网互联技术,而如果你想连接很多节点到单个高性能计算机(HPC),则需要选择InfiniBand。
而现在,这种选择开始模糊。这两种协议开始“侵犯对方的领地”,以更好地互联较大的数据中心。最新版本的以太网——千兆以太网(Gigabit Ethernet)完全能够支持更大的HPC系统,而InfiniBand也正被越来越多地应用于性能敏感的企业数据中心。
从世界最快超级计算机的前500强最新名单来看,500强系统中有226个系统使用的是InfiniBand,而只有188个使用千兆以太网。
目前,对于网络聚合点,可以使用100千兆以太网,其中100千兆以太网卡的每个端点都能以100Gbps传输数据。更便宜的1、10和40千兆以太网网卡同样也可以用于服务器和交换机。为了满足对更多带宽的需求,以太网联盟已经开始开发400千兆以太网。
当前版本的InfiniBand(FDR)提供56Gbps(或者每通道14Gbps)的速度。下一代EDR(增强型数据速率)将于明年推出,提供100Gbps。
这些数字只是告诉了我们一部分事实。InfiniBand提供的优势还包括扁平化的拓扑结构、更低的延迟性和对服务器处理器更少的依赖。而以太网在整个网络设备市场无处不在。
以太网的力量在于它无处不在,从笔记本电脑到最大的数据中心交换机,以太网联盟主席John D'Ambrosia表示:“有很多公司都提供以太网解决方案,一个共同IP可以跨多个应用程序。”
这种无处不在确保了互操作性以及低成本,因为很多供应商激烈的竞争将拉低价格。“对于以太网,你可以将很多东西放在一起用,你可以获得竞争力,同时降低成本。”
InfiniBand在2000年出现,它主要用于绑定多台服务器的内存和处理器,让它们之间可以进行通信,仿佛位于同一块电路板上一样。要做到这一点,InfiniBand的结构并不简单,结合OSI(开放系统互联)网络协议栈的底部四层(物理、数据链路、网络和传输层)到单一架构。
InfiniBand行业协会工作组联合主席Bill Lee表示:“InfiniBand的目标是改善应用程序之间的通信。”这似乎在暗讽以太网的“存储和转发”的方式。
与千兆以太网的分层拓扑结构不同,InfiniBand是平面结构,从拓扑结构上来说,这意味着每个节点都有对所有其他节点的直接连接。InfiniBand的特别之处在于RDMa(远程直接内存访问),这允许网卡在服务器上读取和写入数据,而无需服务器处理器来进行这个工作。
InfiniBand迅速获得了HPC系统的青睐,如上面所述,这项技术现在已经蔓延到了企业环境。例如,Oracle公司使用InfiniBand来为其Exadata和Exalogic数据分析设备提高性能。微软为其最新发布的Windows Server 2012添加了对RDMA的直接支持。
InfiniBand的另一个企业用户是美国退伍军人事务部,这个美国联邦机构的信息操作约在200台服务器上运行,它们通过InfiniBand来通信。该事务部的解决方案架构师Augie Turano表示:“我们要进行大量数据传输。”数据库经常在服务器间移动,这样就可以使用不同的应用程序来分析数据库。Turano表示:“对于我们来说,能够以InfiniBand的速度来在服务器间移动数据,是一个很大的改进。”
然而,以太网联盟的D'Ambrosia并不畏惧InfiniBand的性能优势,他认为以太网能够赶超这种性能。他说道:“我们喜欢来自其他技术的挑战,因为这让我们意识到我们还可以继续完善。”
虽然以太网最初被用来连接少量计算机,而后来的版本则是专门针对更大型应用,例如作为整个数据中心的背板,这种应用很快就成为主流。另外,一些技术(例如iWarp和RoCE)能够帮助以太网降低延迟性和处理器使用,让千兆以太网可以直接与InfiniBand竞争。
D'Ambrosia表示:“以太网正在不断完善。”InfiniBand要注意了,数据中心正潜伏着一个有力的竞争对手。