“大数据”无处不在。从社交媒体初创公司到纽约的中央公园,每个公司似乎都在部署大数据分析。
著名数据分析公司Gartner的数据似乎也在证明这一点:最近的一份报告显示,大数据将带动2012年全球280亿美元的IT支出,到2016年这个数字将超过2300亿美元。2300亿美元几乎是葡萄牙全年的国内生产总值。
但是,你需要花大价钱来部署大数据技术解决方案。大多数公司都没有这么多IT预算,也请不起数据科学家或者数据分析团队。
如果那些提供大数据服务的公司想为各种规模的企业提供服务,那么有几个问题必须认识到并加以解决。
大数据太贵了!
您可能听说过那些使用大数据的辉煌案例:Facebook每天要存储大约100TB的用户数据;NASA每天要处理约24TB的数据。这些数字确实令人印象深刻。
那么处理这些数据所需的成本是多少呢?按照亚马逊Redshift的定价,NASA需要为45天数据存储服务支付超过100万美元。
根据最近的一项调查,大多数企业的CIO称他们的预算支付不起大数据部署的成本。数据存储和处理的成本实在太高,我们需要寻求其他的解决方案,让规模较小的公司不被“大数据”拒之门外。
大数据的关键不是“大”
目前全球最大的科技公司都需要和PB级规模的数据打交道。然而,SAP的研究表明,95%的企业通常只需要使用0.5TB到40TB的数据。
Facebook和NASA的例子是个例外,而不是常态。事实是,处理数据并不是大公司的专利。如果你研究一下美国公司的规模,你会发现有超过50000家公司只有20至500名员工,其中大部分都有解决数据问题的需求。所以大数据市场最大的需求并不是来自那些《财富》50强的大企业,而是来自《财富》500000强。为什么我们只关注那些少数的例外,而忽视了那些大多数有数据处理需求,但既不是《财富》50强也没有PB级规模数据的公司?
有时候我在想,如果我们改变了大数据的定义会发生什么?通常人们用3V(velocity,volume,variety)来描述大数据,我们不妨换一个说法:“大数据是一种主观状态,它描述的是一个公司的基础架构无法满足其数据处理需求时的情形。”
这个定义可能没有那么光鲜,但它肯定会更接近今天的现实。
本文编译自venturebeat
【编辑推荐】