自建Hadoop集群迁移到EMR之数据迁移篇

大数据 Hadoop
自建集群要迁移到EMR集群,往往需要迁移已有数据。本文主要介绍hdfs数据和hive meta数据如何迁移。需要自建集群和EMR各个节点网络互通。同为VPC网络只需要同一个安全组,不同的安全组需要设置安全组互通。

自建集群要迁移到EMR集群,往往需要迁移已有数据。本文主要介绍hdfs数据和hive meta数据如何迁移。

[[219271]]

 

前置

已按需求创建好EMR集群。

迁移hdfs数据

主要依靠distcp,核心是打通网络,确定hdfs参数和要迁移内容,测速,迁移。

网络

需要自建集群和EMR各个节点网络互通。同为VPC网络只需要同一个安全组,不同的安全组需要设置安全组互通。

如果自建集群是经典网络,EMR集群是vpc,网络访问需要设置CLASSICLINK.参见文档,详情可以咨询ECS客服。

设置后可以在新集群节点上ssh 老集群节点确定网络连通情况,distcp操作如果有xx 节点无法连接xx节点的异常,说明没有连通,需要继续设置。

hdfs权限配置确认

hdfs有权限设置,确定老集群是否有acl规则,是否要同步,检查dfs.permissions.enabled 和dfs.namenode.acls.enabled的配置新老集群是否一致,按照实际需要修改。

如果有acl规则要同步,distcp参数要加-p同步权限参数。如果distcp操作提示xx集群不支持acl,说明对应集群没配置。新集群没配置可以修改配置并重启NM。旧集群不支持,说明旧集群根本就没有acl方面的设置,也不需要同步。

同步参数

一般在新集群上运行同步,这样同步的作业可以在新集群上运行,对老集群影响较小。

distcp参数细节,一般命令格式如下:

  1. hadoop distcp -Ddfs.replication=3 -pbugpcax -m 1000 -bandwidth 30 hdfs://oldclusterip:8020 /user/hive/warehouse /user/hive/ 

注意事项:

hdfs://oldclusterip:8020写老集群nameode ip,多个namenode写当前active的。

指定了副本数3,如想保留原有副本数-p后加r如-prbugpcax。如果不同步权限和acl,-p后去掉p和a。

-m指定map数,和集群规模,数据量有关。比如集群有2000核cpu,就可以指定2000个map。 -bandwidth指定单个map的同步速度,是靠控制副本复制速度实现的,是大概值。

  1. 迁移整体速度受集群间带宽,集群规模影响。同时文件越多,checksum需要的时间越长。如果迁移数据量大,可以先试着同步几个目录评估一下整体时间。如果只能在指定时间段内同步,可以将目录切为几个小目录,依次同步。
  2. 如果迁移过程中老集群还有写入,可以用-udpate再将变化同步过来。
  3. 一般完全同步,需要有个短暂的业务停写,以启用双写双算或直接将业务切换到新集群上。

hive meta数据同步

hive meta数据同步,本质是hive meta db,一般是mysql db的数据同步。和一般的mysql数据同步相比,要注意location改变,和hive版本对齐。

meta db设置

meta数据较多时,一般推荐用rds作为meta db。自建集群可能已有一个rds db,由于location不同,一般需要新建一个数据库。***实践是跟EMR集群在一个可用区,一个vpc 安全组下新建一个rds 数据库。

登录新集群master节点(如果是ha集群两个master都需要),修改/usr/local/emr/emr-agent/run/meta_db_info.json,把里面的use_local_meta_db设置为false,meta数据库信息的链接地址、用户名和密码换成新建rds的信息。然后重启hive组件的metaserver。

初始化meta的表信息:

 

  1. ···  
  2. cd /usr/lib/hive-current/bin  
  3. ./schematool - initSchema -dbType mysql  
  4. ··· 

location

hive的表,分区等信息是有location信息的,带dfs nameservices前缀,如hdfs://mycluster:8020/,而EMR集群的nameservices前缀是统一的emr-cluster,所以需要订正。订正的***方式是先导出数据mysqldump --databases hivemeta --single-transaction -u root –p > hive_databases.sql,用sed替换hdfs://oldcluster:8020/为hdfs://emr-cluster/ ,再导入新db中。

  1. mysql hivemeta -p < hive_databases.sql 

版本对齐

EMR的hive版本一般是当前社区***的稳定版,自建集群hive版本可能会更老,所以导入的旧版本数据可能不能直接使用。需要执行hive的升级脚本,地址。例如hive从1.2升级到2.3.0,需要依次执行upgrade-1.2.0-to-2.0.0.mysql.sql,upgrade-2.0.0-to-2.1.0.mysql.sql,upgrade-2.1.0-to-2.2.0.mysql.sql,upgrade-2.2.0-to-2.3.0.mysql.sql。脚本主要是建表,加字段,改内容,如有表已存在,字段已存在的异常可以忽略。

验证

meta数据全部订正后,就可以重启metaserver了。命令行hive,查询库和表,查询数据,验证正确性。

责任编辑:未丽燕 来源: 网络大数据
相关推荐

2023-12-18 09:32:08

ES集群迁移上云oss插件

2010-09-29 11:06:21

活动目录OpenLDAP

2009-08-06 09:20:30

2016-12-12 19:16:43

数据云端

2019-03-25 12:20:29

数据MySQL性能测试

2016-10-26 16:44:44

WatchfinderAWS云计算

2024-11-04 15:49:43

Redis​数据迁移

2018-01-08 08:50:05

Linux内核系统程序

2018-07-10 14:46:04

LinuxShellsudo

2018-12-19 09:20:45

Linux迁移安装软件

2011-01-06 09:07:22

云计算

2023-12-07 07:14:36

WebpackVite

2023-10-19 16:39:38

2021-06-09 17:51:12

Hadoop数据迁移

2017-07-26 16:09:54

系统迁移趋势

2013-06-21 13:49:08

MariaDB

2012-05-21 10:23:36

2021-10-08 11:07:54

云计算数据中心IT

2010-07-20 09:48:33

2019-03-01 17:55:59

企业云计算云平台
点赞
收藏

51CTO技术栈公众号