Hive动态分区详解,你知道吗?

运维 数据库运维
Hive根据select语句中最后两列来确定分区字段country和state的值,这里刻意使用了不同的命名,就是为了强调源表字段和输出分区值之间的关系是根据位置而不是根据命名来匹配的。

 [[382321]]

本文转载自微信公众号「Java大数据与数据仓库」,作者柯同学。转载本文请联系Java大数据与数据仓库公众号。

动态分区调整

  • 动态分区属性:设置为true表示开启动态分区功能(默认为false)hive.exec.dynamic.partition=true;
  • 动态分区属性:设置为nonstrict,表示允许所有分区都是动态的(默认为strict)设置为strict,表示必须保证至少有一个分区是静态的hive.exec.dynamic.partition.mode=strict;
  • 动态分区属性:每个mapper或reducer可以创建的最大动态分区个数hive.exec.max.dynamic.partitions.pernode=100;
  • 动态分区属性:一个动态分区创建语句可以创建的最大动态分区个数hive.exec.max.dynamic.partitions=1000;
  • 动态分区属性:全局可以创建的最大文件个数hive.exec.max.created.files=100000;
  • 控制DataNode一次可以打开的文件个数 这个参数必须设置在DataNode的$HADOOP_HOME/conf/hdfs-site.xml文件中
  1. <property> 
  2.     <name>dfs.datanode.max.xcievers</name
  3.     <value>8192</value> 
  4. </property> 

注意

在Hive中,动态分区会造成在插入数据过程中,生成过多零碎的小文件

动态分区插入

如果需要创建非常多的分区,用户就需要写非常多的条件查询sql把数据插入对应分区。好在Hive提供了动态分区功能,可以根据分区字段的取值自动创建分区。前面列出的开启动态分区hive.exec.dynamic.partition,并且hive.exec.dynamic.partition.mode需要为非严格模式,通常如果分区很多的话,hive.exec.max.dynamic.partitions.pernode也需要设置为一个较大的数,否则会有报错提醒。

现在有sql:

  1. insert overwrite table employees partitions (country, state) 
  2. select ...,se.cnty, se.st 
  3. from staged_employees se; 

可以看出,Hive根据select语句中最后两列来确定分区字段country和state的值,这里刻意使用了不同的命名,就是为了强调源表字段和输出分区值之间的关系是根据位置而不是根据命名来匹配的。

动静分区结合

也可以混合使用动态和静态分区。上面那个例子,我们可以指定国家这个分区值五为静态值US,而分区字段state是动态值:

  1. insert overwrite table employees partitions (country = 'US', state) 
  2. select ...,se.cnty, se.st 
  3. from staged_employees se 
  4. where se.cnty = 'US'

注意:静态分区需要出现在动态分区字段之前。

动态分区功能默认情况下是没有开启的,默认是以严格模式执行,这种模式下要求至少有一列分区字段是静态的。这样做的好处是可以防止因设计或其它错误查询导致产生大量的分区,比如sql boy不小心使用了时间戳作为分区字段,那将是灾难。在日常导入一天的数据,通常是指定日期为静态分区,小时为动态分区,进行混合模式导入。

例子

建表

  1. create table if not exists test.test 
  2. id string, 
  3. name string 
  4. partitioned by (dt string,hour string) 
  5. row format delimited fields terminated by '\t'
  6.  
  7. create table if not exists test.test2 
  8. id string, 
  9. name string 
  10. partitioned by (dt string,hour string) 
  11. row format delimited fields terminated by '\t' 
  12. stored as orc; 

导入数据到test.test表

  1. load data local inpath '/home/hadoop/data/test.txt' into table test.test partition(dt = '2019-09-10'hour = '02'); 
  2.  
  3. test.txt 
  4. 001    keguang 
  5. 002    kg 
  6. 003    kk 
  7. 004    ikeguang 

利用动态分区插入

  1. insert overwrite table test.test2 partition(dt, hourselect `(dt|hour)?+.+`,dt,hour from test.test; 

这里,(dt|hour)?+.+表示查询出test表除了dt和hour这两个字段的其它所有字段。

 

责任编辑:武晓燕 来源: Java大数据与数据仓库
相关推荐

2024-07-01 08:40:18

tokio派生线程

2023-12-20 08:23:53

NIO组件非阻塞

2024-04-30 09:02:48

2023-12-12 08:41:01

2023-04-26 10:21:04

2024-04-07 00:00:00

ESlint命令变量

2024-05-28 09:12:10

2019-06-14 15:36:13

Windows 10安全PC

2024-01-09 07:29:05

Argo代码库应用程序

2021-02-02 08:21:28

网络面试通信

2022-05-27 08:55:15

工具自动化软件

2020-10-28 11:20:55

vue项目技

2022-06-24 08:20:04

CAP网络通信

2017-10-16 13:45:04

2024-07-30 08:22:47

API前端网关

2024-10-10 16:53:53

守护线程编程

2021-12-08 07:31:40

Linux安全病毒

2024-04-07 00:00:03

2022-03-10 08:25:27

JavaScrip变量作用域

2024-08-20 08:29:55

点赞
收藏

51CTO技术栈公众号