据说这是一个“大数据”的时代,到底有多大呢?
Facebook最近在总部的一次会议中披露的一组数据可以给大家一个初步的印象,来一起看看每天Facebook上都得处理多少数据吧:
- 25亿 Facebook上分享的内容条数
- 27亿 “赞”的数量
- 3亿 上传照片数
- 500+TB 新产生的数据
- 105TB 每半小时通过Hive扫描的数据
- 100+PB(1PB=1024TB) 单个HDFS(分布式文件系统)集群中的磁盘容量
FB的工程总监Parikh解释了这些数据对于Facebook的意义:“大数据的意义在于真正对你的生意有内在的洞见。如果你不能好好利用自己收集到的数据,那你只是空有一堆数据而已,不叫大数据。”
目前Facebook有着世界最大的分布式文件系统,单个集群中的数据存储量就超过100PB。在Facebook内部,从一开始就没有在不同的部门之间(比如广告部和用户支持部)设立障碍或者分割数据。这样一来产品开发者就可以跨部门获得数据,实时知晓最近的改动是否增加了用户浏览时间或者促成了更多的广告点击。
作为普通用户,大家也许会对如此海量的数据心存不安,担心自己的数据被随意浏览。对此Facebook表示有各种防范措施来防止此类事情的发生,比如所有的数据读取记录都会被存档,哪些人看过哪些数据都是记录在案的;如果有员工越线,会被直接开除。Parikh着重强调:“在这件事上我们的政策是零容忍。”