Hadoop 2.0集群配置详细教程

大数据 Hadoop
Hadoop是apache的开源项目,开发的主要目的是为了构建可靠,可拓展scalable ,分布式的系统, Hadoop是一系列的子工程的总和。我们今天就谈谈Hadoop 2.0集群配置。

1. hadoop common:为其他项目提供基础设施

2. HDFS 分布式的文件系 统

3. MapReduce : A software framework for distributed processing of large data sets on compute clusters 。一个 简化分布式编程的框架。

4. 其他工程包含: Avro( 序列化系 统 ) ,Cassandra( 数据 库项目 ) 等  

Hadoop,以 Hadoop 分布式文件系统( HDFS ,Hadoop Distributed Filesystem )和 MapReduce ( Google MapReduce 的开源实现)为核心的 Hadoop 为用户提供了系统底层细节透明的分布式基础架构。

对于 Hadoop 的集群来讲,可以分成两大类角色: Master 和 Salve 。一个 HDFS 集群是由一个 NameNode 和若干个 DataNode 组成的。其中 NameNode 作为主服务器,管理文件系统的命名空间和客户端对文件系统的访问操作;集群中的DataNode 管理存储的数据。 MapReduce 框架是由一个 单独运行在主节点上的 JobTracker 和 运行在每个集群从节点的 TaskTracker 共同 组成的。主节点负责调度构成一个作业的所有任务,这些任务分布在不同的从节点上。主节点监控它们的执行情况,并且重新执行之前的失败任务;从节点仅负责由主节点指派的任务。当一个 Job 被提交时, JobTracker 接收到提交作 业和配置信息之后,就会将配置信息等分发给从节点,同时调度任务并监控 TaskTracker 的执行。

从上面的介绍可以看出, HDFS 和 MapReduce 共同 组成了Hadoop分布式系 统体系结构的核心。HDFS 在集群上 实现分布式文件系统, MapReduce 在集群上实现了分布式计算和任务处理。 HDFS 在 MapReduce 任 务处理过程中提供了文件操作和存储等支持, MapReduce在HDFS的基 础上实现了任务的分发、跟踪、执行等工作,并收集结果,二者相互作用,完成了 Hadoop 分布式集群的主要任 务。

为什么要使用2.0版本(来自董的博客)

该版本提供了一些新的、重要的功能,包括: 

• HDFS HA ,当前只能 实现人工切换。

Hadoop HA 分支 merge 进了该版本,并支持热切,主要特性包括:

( 1 )      NN 配置文件有改变,使得配置更加简单

( 2 )      NameNode 分 为两种角色: active NN 与 standby NN , active NN 对外提供读写服务,一旦出现故障,便切换到 standby NN 。

( 3 )      支持 Client 端重定向,也就是 说,当 active NN 切 换到 standby NN 过程中, Client 端所有的 进行时操作都可以无缝透明重定向到 standby NN 上, Client 自己感 觉不到切换过程。

( 4 )      DN 同 时向 active NN 和 standby NN 汇报 block 信息。

具体 设计文档参考: https://issues.apache.org/jira/browse/HDFS-1623

当前 Hadoop HA 只能 实现人工切换,该功能在某些情况下非常有用,比如,对 NN 进行升级时,先将 NN 切 换到 standby NN ,并 对之前的 active NN 进行升级,升级完成后,再将 NN 切 换至升级后的 NN 上,然后 对 standby NN 进行升级。

• YARN ,下一代 MapReduce 这是一套资源统一管理和调度平台,可管理各种计算框架,包括 MapReduce 、 Spark 、 MPI 等。

YARN 是一套 资源统一管理和调度平台,可管理各种计算框架,包括 MapReduce , Spark , MPI 等。尽管它是完全重写而成,但其思想是从 MapReduce 衍化而来的,并克服了它在 扩展性和容错性等方面的众多不足。具体参考:

http://hadoop.apache.org/common/docs/r0.23.0/hadoop-yarn/hadoop-yarn-site/YARN.html

• HDFS Federation ,允 许 HDFS 中存在多个 NameNode ,且每个 NameNode 分管一部分目 录,而 DataNode 不 变,进而缩小了故障带来的影响范围,并起到一定的隔离作用。

传统 HDFS 是 master/slave 结构,其中, master (也就是 NameNode )需要存 储所有文件系统的元数据信息,且所有文件存储操作均需要访问多次 NameNode ,因而 NameNode 成 为制约扩展性的主要瓶颈所在。为了解决该问题,引入了 HDFS Federation ,允 许 HDFS 中存在多个 NameNode ,且每个 NameNode 分管一部分目 录,而 DataNode 不 变,也就是 “ 从中央集权 专政变为各个地方自治 ” , 进而缩小了故障带来的影响范围,并起到一定的隔离作用。具体参考:

http://dongxicheng.org/mapreduce-nextgen/nextgen-mapreduce-introduction/

• 基准性能测试

该版本中为 HDFS 和 YARN 添加了性能的基准 测试集,其中 HDFS 测试包括:

( 1 )      dfsio 基准 测试 HDFS I/O 读写性能

( 2 ) slive 基准 测试 NameNode 内部操作的性能

( 3 ) scan 基准 测试 MapReduce 作 业访问 HDFS 的 I/O 性能

( 4 )      shuffle 基准 测试 shuffle 阶段性能

( 5 )      compression 基准 测试 MapReduce 作 业中间结果和最终结果的压缩性能

( 6 )      gridmix-V3 基准 测试集群吞吐率

YARN     测试包括 :

( 1 )      ApplicationMaster 扩展性基准测试

主要 测试调度 task/container 的性能。与 1.0 版本比 较,大约快 2 倍。

( 2 )      ApplicationMaster 恢复性基准 测试

测试 YARN 重 启后,作业恢复速度。稍微解释一下 ApplicationMaster 恢复作 业的功能:在作业执行过程中, Application Master 会不断地将作 业运行状态保存到磁盘上,比如哪些任务运行完成,哪些未完成等,这样,一旦集群重启或者 master 挂掉,重 启后,可复原各个作业的状态,并只需重新运行未运行完成的哪些任务。

( 3 )      ResourceManager 扩展性基准测试

通 过不断向 Hadoop 集群中添加 节点测试 RM 的 扩展性。

( 4 )      小作 业基准测试

专门测试批量小作业的吞吐率

具体参考:

http://hortonworks.com/blog/delivering-on-hadoop-next-benchmarking-performance/

• 通过 protobufs 来提供HDFS 和YARN 的兼容性

Wire-compatibility for both HDFS & YARN

Hadoop RPC采用了Hadoop自己的一套序列化框架 对 各种 对 象 进 行序列化反序列,但存在一个 问题 : 扩 展性差,很 难 添加新的数据类型同 时 保 证 版本兼容性。 为 此,Hadoop 2.0将数据类型模 块 从RPC中独立出来,成 为 一个独立的可插拔模 块 , 这样 允 许 用 户 根据个人 爱 好使用各种序列化/反序列化框架,比如thrift,arvo,protocal Buffer等,默 认 情况采用Protocal Buffer。

http://hortonworks.com/blog/rpc-improvements-and-wire-compatibility-in-apache-hadoop/

除了以上五个特性外, 还 有两个非常重要的特性正在研 发 中,分别是:

• HDFS快照

用 户 可在任意 时间对 HDFS做快照, 这样 ,在HDFS出 现 故障 时 ,可将数据恢复到某个 时间 点的状 态 。具体参考:

http://hortonworks.com/blog/snapshots-for-hdfs/

• HDFS HA自动 切换

前面介 绍 的第一个功能“HDFS HA”当前只能 实现 人工切 换 ,也就是 说 ,管理 员运 行某个命令,使得acitve NN切 换 到standby NN上。以后将支持自 动 切 换 ,也就是 说 , 监 控模 块 可 检测 出active NN何 时 出 现 故障,并自 动 将之切 换 到standby NN上, 这样 可大大 较 小Hadoop集群 运维 人 员 的工作量。具体参考:

http://s.apache.org/hdfs-autofailover

准备

机器准备

物理机器 总 共4台,想配置基于物理机的hadoop集群中包括 4 个 节点: 1 个 Master , 3 个 Salve , 节点之间局域网连接,可以相互 ping 通

Ip分布 为

192.168.1.201 hadoop1

192.168.1.202 hadoop2

192.168.1.203 hadoop3

192.168.1.204 hadoop4

操作系 统为 CentOS 5.6 64bit

Master机器主要配置NameNode和JobTracker的角色, 负责总 管分布式数据和分解任 务 的 执 行;3个Salve机器配置DataNode和TaskTracker的角色, 负责 分布式数据存 储 以及任 务 的 执 行。其 实应该还应该 有1个Master机器,用来作 为备 用,以防止Master服 务 器宕机, 还 有一个 备 用 马 上 启 用。后 续经验积 累一定 阶 段后 补 上一台 备 用Master机器。

创建账户

使用root登 陆 所有机器后,所有的机器都 创建 hadoop 用 户

useradd hadoop

passwd hadoop

此 时 在 /home/ 下就会生成一个 hadoop 目 录 ,目 录 路径 为 /home/hadoop

创建相关的目录

定 义 需要数据及目 录 的存放路径

定 义 代 码及工具 存放的路径

  1. mkdir -p /home/hadoop/source 
  2. mkdir -p /home/hadoop/tools 

定 义 数据 节 点存放的路径到跟目 录 下的hadoop文件夹, 这 里是数据 节 点存放目 录 需要有足够的空 间 存放

  1. mkdir -p /hadoop/hdfs 
  2. mkdir -p /hadoop/tmp 
  3. mkdir -p /hadoop/log 

设 置可写权限

  1. chmod -R 777 /hadoop 

定 义 java安装程序路径

  1. mkdir -p /usr/java 

安装

安装JDK

http://www.oracle.com/technetwork/java/javase/downloads/jdk-6u32-downloads-1594644.html

在以上 连接 下 载 linux 64 下的 jdk 的安装文件:  jdk-6u32-linux-x64.bin

1 ,将下 载好的 jdk-6u32-linux-x64.bin 通 过 SSH 上 传到 /usr/java 下

scp -r ./jdk-6u32-linux-x64.bin root@hadoop1:/usr/java

2 , 进入 JDK 安装目 录 cd /usr/java 并且 执行 chmod +x jdk-6u32-linux-x64.bin

3 , 执行 ./jdk-6u32-linux-x64.bin

4 ,配置 环境变量,执行 cd /etc 命令后 执行 vi profile ,在行末尾添加

export JAVA_HOME=/usr/java/jdk1.6.0_32

export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:/lib/dt.jar

export PATH=$JAVA_HOME/bin:$PATH

5 , 执行 chmod +x profile 将其 变成可执行文件

6 , 执行 source profile 使其配置立即生效

source /etc/profile

7 , 执行 java -version 查看是否安装成功

这个步骤所有机器都必须安装

  1. [root@hadoop1 bin]# java -version 
  2. java version "1.6.0_32" 
  3. Java(TM) SE Runtime Environment (build 1.6.0_32-b05) 
  4. Java HotSpot(TM) 64-Bit Server VM (build 20.7-b02, mixed mode) 

修改主机名

修改主机名,所有 节点均一样配置

1 , 连接到主节点 192.168.1.201 ,修改 network , 执行 vim /etc/sysconfig/network ,修改 HOSTNAME=hadoop1

2 ,修改 hosts 文件, 执行 cd /etc 命令后 执行 vi hosts ,在行末尾添加 :

192.168.1.201   hadoop1

192.168.1.202   hadoop2

192.168.1.203   hadoop3

192.168.1.204   hadoop4

3 , 执行 hostname hadoop1

4 , 执行 exit 后重新 连接可看到主机名以修改 OK

其他 节点 也修改主机名后添加 Host, 或者 host 文件可以在后面 执行 scp 覆盖操作

配置SSH无密码登陆

SSH 无密 码原理简介 :

首先在 hadoop1 上生成一个密 钥对,包括一个公钥和一个私钥,并将公钥复制到所有的 slave(hadoop2-hadoop4) 上。

然后当 master 通 过 SSH 连接 slave 时, slave 就会生成一个随机数并用 master 的公 钥对随机数进行加密,并发送给 master 。

最后 master 收到加密数之后再用私 钥解密,并将解密数回传给 slave , slave 确 认解密数无误之后就允许 master 不 输入密码进行连接了

2 ,具体步 骤(在root用户和hadoop用户登陆情况下执行)

1 、 执行命令 ssh-keygen -t rsa 之后一路回 车,查看刚生成的无密码钥对: cd .ssh 后 执行 ll

2 、把 id_rsa.pub 追加到授权的 key 里面去。 执行命令 cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

3 、修改权限: 执行 chmod 600 ~/.ssh/authorized_keys

4 、确保 cat /etc/ssh/sshd_config 中存在如下内容

RSAAuthentication yes

PubkeyAuthentication yes

AuthorizedKeysFile      .ssh/authorized_keys

如需修改, 则在修改后执行重启 SSH 服 务命令使其生效 :service sshd restart

5 、将公 钥复制到所有的 slave 机器上 :scp ~/.ssh/id_rsa.pub 192.168.1.203 : ~/    然后 输入 yes ,最后 输入 slave 机器的密 码

6 、在 slave 机器上 创建 .ssh 文件夹 :mkdir ~/.ssh 然后 执行 chmod 700 ~/.ssh (若文件夹以存在 则不需要创建)

7 、追加到授权文件 authorized_keys 执行命令 :cat ~/id_rsa.pub >> ~/.ssh/authorized_keys 然后 执行 chmod 600 ~/.ssh/authorized_keys

8 、重复第 4 步

9 、 验证命令 : 在 master 机器上 执行 ssh 192.168.1.203 发现主机名由 hadoop1 变成 hadoop3 即成功,最后 删除 id_rsa.pub 文件 :rm -r id_rsa.pub

按照以上步 骤分别配置 hadoop1,hadoop2,hadoop3,hadoop4 ,要求每个都可以无密 码登录

源码下载

HADOOP 版本

最新版本 hadoop-2.0.0-alpha  安装包 为 hadoop-2.0.0-alpha.tar.gz

下 载官网地址 :http://www.apache.org/dyn/closer.cgi/hadoop/common/

下 载到 /home/hadoop/source 目录下

wget http://ftp.riken.jp/net/apache/hadoop/common/hadoop-2.0.0-alpha/hadoop-2.0.0-alpha.tar.gz

解压目录

tar zxvf hadoop-2.0.0-alpha.tar.gz

创建软连接

cd /home/hadoop

ln -s /home/hadoop/source/hadoop-2.0.0-alpha/ ./hadoop

源码配置修改

/etc/profile

配置 环境变量: vim /etc/profile

添加

  1. export HADOOP_DEV_HOME=/home/hadoop/hadoop 
  2. export PATH=$PATH:$HADOOP_DEV_HOME/bin 
  3. export PATH=$PATH:$HADOOP_DEV_HOME/sbin 
  4. export HADOOP_MAPARED_HOME=${HADOOP_DEV_HOME} 
  5. export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME} 
  6. export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME} 
  7. export YARN_HOME=${HADOOP_DEV_HOME} 
  8. export HADOOP_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop 
  9. export HDFS_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop 
  10. export YARN_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop 

创建并配置hadoop-env.sh

  1. vim /usr/hadoop/hadoop-2.0.0-alpha/etc/hadoop/hadoop-env.sh  
  2. 在末尾添加 export JAVA_HOME=/usr/java/jdk1.6.0_27 
  3.  
  4.  core-site.xml 

在 configuration 节点 里面添加属性

  1. <property> 
  2. <name>hadoop.tmp.dir</name> 
  3. <value>/hadoop/tmp</value> 
  4. <description>A base for other temporary directories.</description> 
  5. </property> 
  6. <property> 
  7. <name>fs.default.name</name> 
  8. <value>hdfs://192.168.1.201:9000</value> 
  9. </property> 

添加 httpfs 的 选项

  1. <property> 
  2. <name>hadoop.proxyuser.root.hosts</name> 
  3. <value>192.168.1.201</value> 
  4. </property> 
  5. <property> 
  6. <name>hadoop.proxyuser.root.groups</name> 
  7. <value>*</value> 
  8. </property> 

slave配置

vim /home/hadoop/hadoop/etc/hadoop/slaves 

添加 slave 的 IP

192.168.1.202

192.168.1.203

192.168.1.204

配置hdfs-site.xml

  1. vim /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml 

添加 节点

  1. <property> 
  2. <name>dfs.replication</name> 
  3. <value>3</value> 
  4. </property> 
  5.  
  6. <property> 
  7. <name>dfs.namenode.name.dir</name> 
  8. <value>file:/hadoop/hdfs/name</value> 
  9. <final>true</final> 
  10. </property> 
  11.  
  12. <property> 
  13. <name>dfs.federation.nameservice.id</name> 
  14. <value>ns1</value> 
  15. </property> 
  16.  
  17. <property> 
  18. <name>dfs.namenode.backup.address.ns1</name> 
  19. <value>192.168.1.201:50100</value> 
  20. </property> 
  21.  
  22. <property> 
  23. <name>dfs.namenode.backup.http-address.ns1</name> 
  24. <value>192.168.1.201:50105</value> 
  25. </property> 
  26.  
  27. <property> 
  28. <name>dfs.federation.nameservices</name> 
  29. <value>ns1</value> 
  30. </property> 
  31.  
  32. <property> 
  33. <name>dfs.namenode.rpc-address.ns1</name> 
  34. <value>192.168.1.201:9000</value> 
  35. </property> 
  36. <property> 
  37. <name>dfs.namenode.rpc-address.ns2</name> 
  38. <value>192.168.1.201:9000</value> 
  39. </property> 
  40.  
  41. <property> 
  42. <name>dfs.namenode.http-address.ns1</name> 
  43. <value>192.168.1.201:23001</value> 
  44. </property> 
  45.  
  46. <property> 
  47. <name>dfs.namenode.http-address.ns2</name> 
  48. <value>192.168.1.201:13001</value> 
  49. </property> 
  50.  
  51. <property> 
  52. <name>dfs.dataname.data.dir</name> 
  53. <value>file:/hadoop/hdfs/data</value> 
  54. <final>true</final> 
  55. </property> 
  56.  
  57. <property> 
  58. <name>dfs.namenode.secondary.http-address.ns1</name> 
  59. <value>192.168.1.201:23002</value> 
  60. </property> 
  61.  
  62. <property> 
  63. <name>dfs.namenode.secondary.http-address.ns2</name> 
  64. <value>192.168.1.201:23002</value> 
  65. </property> 
  66.  
  67. <property> 
  68. <name>dfs.namenode.secondary.http-address.ns1</name> 
  69. <value>192.168.1.201:23003</value> 
  70. </property> 
  71.  
  72. <property> 
  73. <name>dfs.namenode.secondary.http-address.ns2</name> 
  74. <value>192.168.1.201:23003</value> 
  75. </property> 

配置yarn-site.xml

添加 节点

  1. <property> 
  2. <name>yarn.resourcemanager.address</name> 
  3. <value>192.168.1.201:18040</value> 
  4. </property> 
  5.  
  6. <property> 
  7. <name>yarn.resourcemanager.scheduler.address</name> 
  8. <value>192.168.1.201:18030</value> 
  9. </property> 
  10.  
  11. <property> 
  12. <name>yarn.resourcemanager.webapp.address</name> 
  13. <value>192.168.1.201:18088</value> 
  14. </property> 
  15.  
  16. <property> 
  17. <name>yarn.resourcemanager.resource-tracker.address</name> 
  18. <value>192.168.1.201:18025</value> 
  19. </property> 
  20.  
  21. <property> 
  22. <name>yarn.resourcemanager.admin.address</name> 
  23. <value>192.168.1.201:18141</value> 
  24. </property> 
  25.  
  26. <property> 
  27. <name>yarn.nodemanager.aux-services</name> 
  28. <value>mapreduce.shuffle</value> 
  29. </property> 

配置httpfs-site.xml

同步代码到其他机器

1.同步配置代 码

先在 slaves 的机器上也 创 建

mkdir -p /home/hadoop/source

部署hadoop代 码 , 创 建 软连接 ,然后只要同步修改 过 的etc/hadoop下的配置文件即可

2.同步 /etc/profile

3.同步 /etc/hosts 

scp -r /etc/profile root@hadoop2:/etc/profile

scp -r /etc/hosts root@hadoop2:/etc/hosts

其他机器以此操作

Hadoop启动

格式化集群

hadoop namenode -format -clusterid clustername

启动hdfs

执行

start-dfs.sh

开 启 hadoop dfs服 务     

启动Yarn

开 启 yarn 资 源管理服 务

start-yarn.sh

启动httpfs

开 启 httpfs 服 务

httpfs.sh start

使得 对外 可以提高 http 的restful接口服 务

测试

安装结果验证

验证hdfs

在各台机器 执行 jps 看 进程 是否都已 经启动 了

  1. [root@hadoop1 hadoop]# jps 
  2. 7396 NameNode 
  3. 24834 Bootstrap 
  4. 7594 SecondaryNameNode 
  5. 7681 ResourceManager 
  6. 32261 Jps 
  7.  
  8. [root@hadoop2 ~]# jps 
  9. 8966 Jps 
  10. 31822 DataNode 
  11. 31935 NodeManager 

进程启动 正常

验证 是否可以登 陆

  1. hadoop fs -ls hdfs://192.168.1.201:9000/  
  2. hadoop fs -mkdir hdfs://192.168.1.201:9000/testfolder  
  3. hadoop fs -copyFromLocal ./xxxx hdfs://192.168.1.201:9000/testfolder  
  4. hadoop fs -ls hdfs://192.168.1.201:9000/ testfolder 

看以上 执行 是否正常

验证map/reduce

在 master1 上, 创建输入目录 :hadoop fs -mkdir hdfs://192.168.1.201:9000/input

将 /usr/hadoop/hadoop-2.0.1-alpha/ 目 录下的所有 txt 文件复制到 hdfs 分布式文件系 统的目录里,执行以下命令

hadoop fs -put /usr/hadoop/hadoop-2.0.1-alpha/*.txt hdfs://192.168.1.201:9000/input

在 hadoop1 上, 执行 HADOOP 自 带的例子, wordcount 包,命令如下

  1. cd /usr/hadoop/hadoop-2.0.1-alpha/share/hadoop/mapreduce 
  2. hadoop jar hadoop-mapreduce-examples-2.0.1-alpha.jar wordcount hdfs://192.168.1.201:9000/input hdfs://192.168.1.201:9000/output 
  3.  
  4. hadoop fs -put /usr/hadoop/hadoop-2.0.1-alpha/*.txt hdfs://192.168.1.201:9000/input 

在 hadoop1 上, 查看结果命令如下 :

  1. [root@master1 hadoop]# hadoop fs -ls hdfs://192.168.1.201:9000/output 
  2. Found 2 items 
  3. -rw-r--r--   2 root supergroup          0 2012-06-29 22:59 hdfs://192.168.1.201:9000/output/_SUCCESS 
  4. -rw-r--r--   2 root supergroup       8739 2012-06-29 22:59 hdfs://192.168.1.201:9000/output/part-r-00000 
  5.  
  6. [root@hadoop1 hadoop]# hadoop fs -cat  hdfs://192.168.1.201:9000/output/part-r-00000  

即可看到每个 单词的数量

验证httpfs

HTTPFS操作:

OPEN,GETFILESTATUS,LISTSTATUS,GETHOMEDIRECTORY,GETCONTENTSUMMARY,GETFILECHECKSUM,GETDELEGATIONTOKEN,GETFILEBLOCKLOCATIONS,INSTRUMENTATION

GETHOMEDIRECTORY 路径无关,返回根 节点路径

  1. http://192.168.1.201:14000/webhdfs/v1/yxq?op=GETHOMEDIRECTORY&user.name=root 
  2.  
  3. Path: "/user/root" 
  4.  
  5. http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/bitwaretestfile0.bt?op=GETHOMEDIRECTORY&user.name=root 

打开 / 下 载一个文件

http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/bitwaretestfile0.bt?op=open&user.name=root

LISTSTATUS 现实目录状态

  1. http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0?op=LISTSTATUS&user.name=root 
  2. http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/bitwaretestfile0.bt?op=LISTSTATUS&user.name=root 

GETFILESTATUS 显示文件的状态

  1. http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/bitwaretestfile0.bt?op=GETFILESTATUS&user.name=root 

如果是路径 则现实路径信息

  1. http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/?op=GETFILESTATUS&user.name=root 
  2. http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/bitwaretestfile0.bt?op=GETFILESTATUS&user.name=root 

GETCONTENTSUMMARY 获取路径下的信息

  1. http://192.168.1.201:14000/webhdfs/v1/yxq?op=GETCONTENTSUMMARY&user.name=root 

GETFILECHECKSUM 获取文件的校验值

  1. http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/bitwaretestfile0.bt?op=GETFILECHECKSUM&user.name=root 

以下 实现 方法 还 有 错误现 在:

  1. ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- 
  2.  
  3. GETDELEGATIONTOKEN ERROR 
  4.  
  5. http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/bitwaretestfile0.bt?op=GETDELEGATIONTOKEN&user.name=root 
  6.  
  7. GETFILEBLOCKLOCATIONS error 
  8.  
  9. http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/bitwaretestfile0.bt?op=GETFILEBLOCKLOCATIONS&user.name=root 
  10.  
  11. INSTRUMENTATION error 
  12.  
  13. http://192.168.1.201:14000/webhdfs/v1/yxq/bitfoldersub0/bitwaretestfile0.bt?op=INSTRUMENTATION&user.name=root 

性能测试

使用内部的 benchmark 测试 不同文件大小及不同append大小的写入情况

hadoop jar /home/hadoop/hadoop/bin/BitwareHadoopBenchmark.jar BitwareHadoopBenchmark hdfs://192.168.1.201:9000 /bitwaretest01/ 0 20 200 4 0

参考资料

 http://qmkemail.iteye.com/blog/1612323

http://dongxicheng.org/mapreduce-nextgen/apache-hadoop-2-0-alpha/

原文链接:http://www.cnblogs.com/scotoma/archive/2012/09/18/2689902.html

 

【编辑推荐】

  1. 小白学数据分析:怎么做流失分析
  2. 小白学数据分析之K-means理论篇
  3. 小白学数据分析之从购买记录分析道具支付环节
  4. 小白学数据分析之付费渗透率
  5. 小白学数据分析之Excel制作INFOGRAPHIC

 

【责任编辑:彭凡 TEL:(010)68476606】
责任编辑:彭凡 来源: 博客园
相关推荐

2010-06-04 17:34:13

Hadoop0.20.

2010-06-04 17:21:48

2013-11-22 09:57:03

hadoop1.2.1zookeeper-3hbase-0.94.

2010-08-18 13:10:33

MySQL NDB 6

2012-01-13 10:22:22

ibmdwlotus

2010-08-31 10:20:10

DB2MSCS集群

2012-06-25 10:30:06

Hadoop集群

2010-06-04 10:35:14

2014-03-13 10:14:59

离线集群Hadoop 2.0淘宝

2010-06-07 09:14:55

Hadoop集群

2011-04-21 10:05:35

Hadoop集群lzo

2013-12-30 16:08:20

华为Oceanstor V重删备份

2015-08-26 10:18:40

hbase

2016-12-13 16:36:15

Hadoopwindows

2014-01-07 14:16:22

Hadoop2.0日志

2013-05-30 09:07:29

Hadoop 2.0

2010-09-06 09:22:01

DB2集群服务

2012-11-22 10:37:53

路由器

2010-07-27 10:46:46

2011-04-19 09:24:19

点赞
收藏

51CTO技术栈公众号