近期Hadoop实施心得与总结

开发 前端 其他数据库 Hadoop
Hadoop实施已经有快一个月了,对Hadoop(1.0.3)的概念理解、使用,Linux 与 Shell脚本,甚至对 Mysql 都有了更多的理解。

Hadoop实施已经有快一个月了,对Hadoop(1.0.3)的概念理解、使用,Linux 与 Shell脚本,甚至对 Mysql 都有了更多的理解。

项目背景:用于互联网信息收集后的关键词匹配与内容提取。

主要系统架构分为互联网爬虫、分析、业务应用三块:

简单架构描述

 

由于我在当中的角色主要负责分析架构的搭建,所以其他两块都画得简单,下面也不会过多的描述。

Hadoop理解:提到Hadoop都想到的是云、分布式计算,在一段时间的实施之后有了一些具体的理解。

Hadoop的优势:

针对性能指标,当业务数据量总量或增速上升到一定级别,依靠关系型数据库一定无法支持。对于非关系型数据库,包括NoSQL和Solr一类存储方式,稍显复杂,对于机器集群性能要求偏高(相对于文件系统)。从数据使用模式上来讲,目前海量数据的常常是不包含复杂逻辑的简单统计整理(比如上述系统中的关键词匹配)。这时候文件系统的优势反而比较明显(结构简单,逻辑简单)。

如上述系统的应用场景是怎么样的呢,在一个强大的爬虫系统之下,每个小时的数据增量在G到10G的级别,需要搜索所有的文件,获取关键字的匹配,并且对匹配内容进行摘要。很类似我们windows里面的搜索功能,需要解决的就是如何在这样增幅的文件系统之下,如何满足业务系统的需求。

Hadoop logo
 

分析系统有什么要求呢?

○能够建立集群,分布式的保存数据文件内容(统一控制,可配置)。

  • 有一定的保护机制,保证数据或节点丢失不会影响系统使用。
  • 如果有一个任务脚本执行框架机制就好了(用于并行计算)。
  • 能够进行节点间的数据均衡。
  • 能够简单的查看所有的状态与日志(web客户端)

可能主要是这些了。若自己实现,确实是个复杂而庞大的工程,现在我们有了Hadoop。

系统物理架构

我们使用了一台服务器,利用虚拟化,安装了7套64x位的CentOS。一个Namenode,6个Datanode,复制数设置为3。每个系统分配到一个cpu,2G内存,Datanode挂载了500G的存储空间。

理想的Hadoop的搭建环境,参照《Best Practices for Selecting Apache Hadoop Hardware》一文,以及一些其他的文章。

CPU:最好是双CPU,8核左右。不用太高了。

内存:推荐48G,但是4G应该就可以运行Hadoop了。

硬盘:7200转的SATA硬盘即可,Hadoop很占空间,所以尽量加。

网络:内部的数据交换要求非常高,内网最好是千兆网卡,带宽为1GB。

理想与现实,有钱与没钱,呵呵。

系统软件架构

Hadoop:版本使用的是1.0.3,再下来就是2了,为了尽量简化应用,所以不考虑2的新特性。对Hadoop没有做太多的设置,基本基于默认。70为Namenode,71-76为Datanode。

JDK:1.6.0_33 (64x)

系统实施过程

HDFS部分:

爬虫抓取数据,整理后存放在50文件服务器,70以外部挂载的形式读取。网页文件比较小,假如直接写入Hadoop对Namenode负载过大,所以入库前合并,将每小时网页整合成为一个文件写入HDFS,由于区分类别,所以每小时基本写入10个文件左右,总量在5-8G,耗时在40-50分钟。(这个过程中,由于爬虫的IO过于频繁,导致文件读取困难,所以做了定时任务,每小时启动一次,将需要处理的文件先拷贝到临时区域,合并入库之后再删除。此处应该是受到单核cpu的限制,所有操作均是串行,包括拷贝(cp)和合并入库(java),所以Namenode严重建议配置稍高。)

此处没有太多问题。

MapReduce部分:

写入完成后,进行分析工作,MapReduce。此处的工作过程为:数据库定时生成关键词列表文件。Job执行时会读取列表文件,匹配指定范围内的 HDFS文件(过去一小时),匹配出对应的表达式与HTML,Map过程结束。在Reduce阶段,会将Map的所有数据入数据库(Mysql)。

此处出现过一些问题,记录下来。

1. Reduce阶段需要加载Mysql的第三方驱动包。我在三个环境测试过(公司、家里、发布环境),使用 -libjars 一定可以,有的地方不需要也可以。不明确,怀疑与HADOOP_HOME环境变量有关。

2. MR过程中使用log4j打印日志,在Hadoop临时目录(如果你没有配置 dfs.name.dir,dfs.data.dir,mapred.local.dir.mapred.system.dir等目录,这些都会在 hadoop.tmp.dir当中,我就偷懒都没配置)mapred文件夹中查看一下。

整个过程实际上还是比较简单的,基本编码量就在Job的部分,但是一个Java文件就够了。在目前初级阶段应该还是比较好用的。现在还没有测试Job的执行效率。完成后会继续记录下来。有什么问题可以尽量提出。我会继续关注。

原文链接:http://blog.jobbole.com/25060/

责任编辑:林师授 来源: 伯乐在线
相关推荐

2012-03-07 16:58:32

专利

2014-06-11 10:29:03

2012-02-01 14:28:03

Java线程

2009-10-22 14:38:07

家庭网络布线

2009-10-20 10:24:44

综合布线系统

2011-08-18 13:57:47

Star Schema

2019-12-20 14:21:26

JVM调优垃圾回收

2009-09-01 15:08:07

C#命名规范

2022-09-13 12:56:28

前端优化

2012-09-04 13:53:40

面试总结面试经历

2009-08-28 17:00:50

C# for

2011-11-18 15:18:41

Junit单元测试Java

2021-09-13 07:58:52

考试算法PAT

2012-08-27 13:25:41

面试

2018-11-26 08:49:42

CPU排查负载

2013-07-05 16:37:50

数据丢失故障排查

2011-03-15 11:05:03

2009-02-21 19:17:54

CCIE Lab面试思科

2011-08-11 13:57:16

2012-09-18 13:19:45

Hadoop
点赞
收藏

51CTO技术栈公众号