以太网在存储领域的应用可以说成功吗?
iSCSI(IP SAN)从提出到进入市场,也就是大约10年的时间,如今已经从传统光纤通道(FC)SAN存储网络手中成功分得一杯羹。并且随着10GbE(万兆以太网)的普及和DCB无损以太网的应用,iSCSI在可预见的范围内仍将保持一定时间的较高增长率。NAS文件存储的情况,笔者觉得有些受当前经济形势的影响,尽管人们都看好非结构化数据的增加,但短时间内的投资情况可能不够乐观。
FCoE是否成功:交换机/适配器厂商各执一词
曾被人们寄予厚望的FCoE(以太网光纤通道),它的实际应用推进速度似乎远低于人们的预期。上个月在美国圣何塞举行的博科分析师与科技日上,博科数据中心和企业网络副总裁Jason Nolet表示:“我们在FCoE上投入了大量资金研发,但现实的情况是采用率较低,不仅是从服务器到架顶式交换机,端到端的存储应用几乎没有。但我们会继续努力,保持关注。”
至于客户不愿采用FCoE的原因,Jason Nolet认为不是技术问题,而是不愿破坏15年来在传统SAN基础设施上的投入。FCoE“虚假承诺”融合不同的基础架构,但无法保证达到FC的性能和可靠性,而且负责以太网和存储网络的两个组织机构没有协调好。
9月12日在大会现场展示的Brocade DCX 8510-4 Backbone 16Gb/s FC核心交换机。
以太网依旧是博科技术日的主要话题,但如今提起FCoE的人已经少多了...
占据优势地位的FC交换机厂商这样说,以网络适配器为主业的公司对FCoE市场的发展又是什么样的观点呢?
在上周Emulex中国公司开业庆典暨北京新址开业仪式的采访中,Emulex总裁兼***运营官Jeff Benck表示:“FCoE作为一个技术层面,它的增长速度显然是没有能够达到我们几年前预期的那么快。但是每年我们都看到了FCoE产品和技术出现的增长。目前FCoE产品占我们以太网产品的15%,而且随着我们在万兆级以太网市场不断地发展,估计这个比率将继续保持下去,所以它仍然会出现成熟性的增长。目前英特尔推出的Sandy Bridge服务器即Romley平台会进一步发展,在万兆级以太网中FCoE作为强有力的组成部分,预计明年这部分的增长速度将更快。”
Jeff Benck还说:“现在我们正在大力推动基于融合型以太网的RDMA(RoCE)解决方案,预计明年这项技术将广泛应用在我们的万兆以太网市场。除此之外明年我们还将继续推动40Gb以太网相关的产品,这能够进一步的将部分高性能计算的工作流转移到以太网上。”
在Emulex的一份资料中,笔者看到了这样一段话:
“我们计划将支持RoCE(融合以太网上的RDMA)的下一代40/100GbE解决方案的成本和性能优势相结合,使公司可以从老牌InfiniBand(IB)提供商手中赚取HPC市场份额。正如Emulex在早期10GbE过渡过程中利用存储(iSCSI和光纤通道)堆栈来对更大型竞争对手进行侧翼包围的做法一样,公司将充分利用RoCE,在向40和100GbE技术过渡的过程中进一步巩固业务和战略领先优势。”
这个图片来自2010年7月Emulex的演讲资料
先不讨论前面一句HPC的,对于以太网给Emulex带来新的增长点,以及他们利用存储特性在10GbE市场竞争中获益这些,笔者都能认同。 Emulex、QLogic和Brocade在以太网存储应用普及,特别是看到未来传统FC被FCoE替代的可能性下,都有类似的转型动作,而应该说 Emulex较另外两者在这方面做得更坚决。通过最近几个季度的财报,我们已经能看出效果了。
Jeff Benck对此这样表示:“我们对于万兆以太网的市场造成了颠覆性影响,战胜了英特尔和博通,我们通过万兆级的产品给客户提供了一些新的价值,这样客户可以重新思考自己应该采用什么样的产品。我们所推出的解决方案不仅是加速,而且具备新的功能。”
这里所谓的新价值,或者说新功能,就是在相同硬件(包括LOM芯片和CNA适配卡)上提供普通10GbE以太网、iSCSI和FCoE三种不同应用形式。我们无法去实际验证Emulex声称的端口出货数量,但更加完善的存储堆栈,确实帮助他们赢得IBM和惠普等刀片/机架式服务器的选择。
RoCE:Emulex以太网的下一个“FCoE”
接着再看高性能计算。InfiniBand很早就推出了10Gb/s速率的产品,在万兆以太网还没完全普及的今天,40Gb/s(DDR)和56Gb/s(QDR)IB已经在成为主流,预计下一代技术将是100Gb/s的EDR(8*12.5Gb/s)。
除了带宽之外,HPC应用对网络的延时也相当敏感。IB在这方面的优势主要来自RDMA(远程直接内存访问),而以太网则“输”在TCP/IP协议上。Mellanox ConnectX-3双端口适配器/芯片方案的MPI(消息传递接口)ping延时只有1微秒,而受TCP/IP数据封包效率影响的以太网ping延时可达几十微秒。
Mellanox ConnectX-3 InfiniBand/VPI芯片模块图、关键特性
我们知道闪存的延时大大低于机械硬盘,因此这两年市场中出现的一些高性能固态存储系统提供了InfiniBand主机接口,比如运行Fusion-io ION(离子)软件的外部闪存存储方案,以及Mellanox VSA高速块存储目标端&网关软件。
那么,如果以太网应用RDMA之后延时会显著改善吗?答案是肯定的,尽管它仍然不具备InfiniBand的一些先天优势,正所谓术业有专攻。
不同速率服务器(网络)适配器和板载网络端口的市场出货量统计及预测。
来源:Crehan Research,2011年2月。从这个看的话,未来40GbE有可能与InfiniBand争抢市场。
记者:如果说RoCE是Emulex的下一个重要机会的话,这扇门是否也面对其他厂商敞开呢?比如英特尔和Mellanox两家公司就同时具备以太网和InfiniBand技术。谈到RoCE,他们在HPC行业中的经验更加丰富。Emulex对此怎么看呢?
Jeff Benck回答说:“目前我们推出的RoCE产品是针对40G的市场,当然有一些高端的高性能计算用户仍然会使用InfiniBand。但是现在数据中心一个通用的趋势就是减少延迟和增加带宽,所以我相信目前使用以太网的用户以后会继续使用以太网产品。我们并不是说要和Mellanox来进行竞争,推我们自己的Emulex的产品,这不是我们的战略所在;而相反的是,我们是希望把目前应用在InfiniBand上的一些工作负荷流转移到以太网当中,通过RDMA的形式。以太网一直是我们的优势,也将继续是我们的工作核心和重点。
另外我想补充一下。如果你看一下Mellanox这家公司,他们的以太网产品只占我们的25%,因此我们在这方面具备较大优势。再看Intel,对QLogic(IB业务)的兼并,的确使Intel具备了InfiniBand相关产品解决方案,但是他们的产品技术有些落后。当他们在推动针对InfiniBand的FDR和EDR解决方案的时候,在适应40G以太网上的步伐肯定比我们走的要慢。”
总结:以笔者的了解,行业对RoCE没有当初的FCoE那样看好,估计它在短时间内给InfiniBand带来的威胁也会比较有限。但就像上一次FCoE对Emulex的帮助那样,RoCE的确有可能给他们以太网业务的发展带来下一个增长点。毕竟Intel和Mellanox应该不希望“左右互搏”,对RoCE的支持恐怕不会太积极吧?