支持客户在云计算中进行大数据分析的挑战并没有因为存储设备问题的解决而结束。云计算供应商们纷纷表示,针对网络和整个云计算架构,需要一个更为全面的方法。
这就意味着承认大数据分析并不适合使用云计算,Savvis公司的云计算解决方案副总裁Jonathan King说。但是,这也是互补性托管服务集合能够大显身手的所在,他说。
“你总是有需要满负荷运行的大块数据引擎,这就意味着它与其他组件不同,是专用基础设施的理想选择,它是负载可变、是适合使用云计算技术的,”King说。“有很多这样的工作是批处理的,你将在不同的时间运行四个或八个小时,因此实现从专用到虚拟的转变是真正有必要的。”
云计算中的大数据分析还为服务供应商们提出了网络方面的问题。通过把所有的合作伙伴和客户聚在一个云计算中以及运行着一个10千兆以太网网络,CloudSigma实施者他的生态系统战略,“这意味着你可以真正真正快速、低价地掌控TB级的海量数据,”Jenkins说。去年由CenturyLink收购的Savvis也正在考虑云计算大数据分析中网络因素的影响。
“你不会希望总是传输TB级和PB级的数据,”King说。“把数据保存在那里,然后你可以进行分析。”
随着SHI国际开发的一个大数据云计算服务即将问世(有可能将于明年正式发布),云计算供应商正在利用其在云计算高性能计算(HPC)方面的经验,通过与HP公司的合作关系向互联网2联盟提供基础设施即服务(IaaS)。除了改善了存储设备的性能以外,SHI国际的vCore架构还同样实现了网络和服务器性能的“自我优化”,Fastert说。
“事实证明,相同的方式完全能够正常运行,我们为HPC设计和优化vCore的方法完全适用于大数据分析应用,”他说。“大多数云计算供应商们基本上都是一个单片架构,他们可以有大量的服务器、关系存储设备等等,但所有这些都是单一架构的。当你使用vCore模式时,它允许你很容易地优化基础设施的分段。这就证明了,相同形式的优化对于大数据分析也具有预期的良好效果。