据 InformationWeek近日的一则消息显示,DARPA(美国国防高级研究计划局)将给分析公司Continuum Analytics投资300万美元,用于开发Python的数据分析和处理库。这笔资金来自其将在四年内投资1亿美元来改善大数据技术的XDATA项目,这个项目旨在“开 发用于分析国防活动中海量面向任务信息的 计算技术和软件工具”。
Continuum Analytics将致力Blaze和Bokeh库的开发:Blaze用于科学计算,而Bokeh则是一个可视化系统。
其中,Blaze将同时扩展现有的数学计算库NumPy和科学计算库SciPy,使其更适应大数据库技术。Blaze将聚焦在内核外处理超过系统内存容量的大型数据集,并同时支持分布式数据和流数据。
而Bokeh则是一个用于大数据可视化的Python库,Continuum称之为用于大型数据集的“可扩展、交互式以及易于使用的可视化系统”。Bokeh将整合许多可视化技术,将包含Stencil可视化模型和Grammar of Graphics。
Python的运行效率可以用“低下”来形容了,那么究竟又是什么让它与大数据擦出了火花?首先要先看一下Python语言自身的优势:
1. 易于学习的Python
众所周知,大多数的大数据分析工作都不是开发者在做,这样易于学习的Python就有了被Continuum Analytics与DARPA同时看重的理由。就像该公司董事长Peter Wang说:“如果他们可以学习一门简单的语言,他们将不需要额外的软件开发部门去参与数据分析。”
2. 解释性语言Python
基于解释语言的特性,使用Python进行开发无疑可以数倍的提升编码效率;不到C++/Java一半的代码行将大幅度减少开发过程和维护阶段的工作量,相信不会被大部分开发者讨厌。
上文说到Python受开发者喜爱的两个方面:易于学习和高效的编码效率;然而作为解释性语言,Python的运行效率必然不会很快,而快于Python几倍、甚至几十倍的语言也是一抓一大把,那么Python在海量的数据处理中还会具备优势吗?
大数据vs. Python
俗话说具体问题具体对待,而一般我们从本质上把大数据应用场景分为两个方面:
1. CPU密集型操作
在CPU密集型操作情况下,我们需要对海量的数据进行计算;而刚刚说到作为解释性语言Python有着“相对杯具”的运行效率,那么在像求逆矩阵、向量相似度等对语言高效性非常依赖的情景下,让Python去做这些必然会造成性能下降和负载增加。然而别忘了Python还有个昵称 —— 胶水语言,其集成机制可以轻松的联结使用其它语言编写的模块,比如:C、C++、Java。这样我们就可以完全根据情况需要,使用Python来做框架,在核心CPU密集操作部分调用C或者其它高效语言。这样开发效率和性能都得以保障,至于对开发团队要求的增高就是另外一回事了。
2. I/O密集型操作
在这个场景下,我们经常做的是频繁的I/O操作、频繁的输入/读取文件系统,但是不会涉及到复杂的计算。出于这些操作通常都是调用操作系统接口来完成,所以对语言的要求显然不会太高。
从DARPA得到助力的不只是Python一个领域,下面看一下最近从DARPA获得资金的项目:
近期得到DARPA慷慨解囊的机构
在2012年11月,数据可视化和软件公司Kitware收到一笔400万美元的资金,用于和软件公司KnowledgeVis及一些高校一起开发名为Visualization Design Environment的开源数据聚合、查询和可视化工具包。
其后2012年12月,乔治亚理工学院公布他们获得了270万美元资金;这些资金用于在可扩展的机器学习技术和分布式计算架构上的研究,致力研发快速处理数据分析的算法。同样在新机器学习软件方面,Scientific Systems Company也获得了数额不详的资金。
2月,数据库开发者兼软件资讯公司SYSTAP获得XDATA项目的200万美元,这笔资金用于建立一个开源图分析平台(使用GPU计算集群)。