Hive数据倾斜案例讲解

大数据
实际搞过离线数据处理的同学都知道,Hive SQL 的各种优化方法都是和数据倾斜密切相关的,所以我会先来聊一聊 “「数据倾斜」” 的基本概念,然后再在此基础上为大家介绍各种场景下的 Hive 优化方案。

实际搞过离线数据处理的同学都知道,Hive SQL 的各种优化方法都是和数据倾斜密切相关的,所以我会先来聊一聊 “「数据倾斜」” 的基本概念,然后再在此基础上为大家介绍各种场景下的 Hive 优化方案。

Hive 的优化分为 「join 相关的优化」 和 「join 无关的优化」 。

从项目实际来说, join 相关的优化其实占据了 Hive 优化的大部分内容,而 join 相关的优化又分为 mapjoin 可以解决的 join 优化和 mapjoin 无法解决的 join 优化。

一、离线数据的主要挑战:“数据倾斜”

首先介绍 “数据倾斜” 的概念。

“倾斜”应该来自于统计学里的的偏态分布,数据处理中的倾斜和此相关。

对于分布式数据处理来说,我们希望数据平均分布到每个处理节点,但是实际上由于业务数据本身的问题或者分布算法的问题,每个节点分配到的数据量很可能并不是我们预想的那样。

也就是说,只有待分到最多数据的节点处理完数据,整个数据处理任务才能完成,时分布式的意义就大打折扣 ,想想那个卡死的 99% 。

实际上,即使每个节点分配到的数据量大致相同,数据仍可能倾斜,比如考虑统计词频的极端问题,如果某个节点分配到的词都是一个词,那么显此节点需要的耗时将很长,即使其数据量和其他节点的数据量相同。

Hive 的优化正是采用各种措施和方法对上述场景的倾斜问题进行优化和处理。

二、Hive 的优化

其实在实际 Hive SQL 开发的过程中, Hive SQL 性能的问题上实际只有一小部分和数据倾相关。

很多时候, Hive SQL 运行得慢是由开发人员对于使用的数据了解不够以及一些不良的使用习惯引起的。

开发人员 要确定以下几点:

  • 「需要计算的指标真的需要从数据仓库的公共明细层来自行汇总么?」 是不是数据公共层团队开发的公共汇总层已经可以满足自己的需求?对于大众的、 KPI 相关的指标等通常设计良好的数据仓库公共层肯定已经包含了,直接使用即可。
  • 「真的需要扫描这么多分区么?」 比如对于销售明细事务表来说,扫描一年的分区和扫描一周的分区所带来的计算、 IO 开销完全是两个量级,所耗费的时间肯定也是不同的。作为开发人员,我们需要仔细考虑业务的需求,尽量不要浪费计算和存储资源!
  • 「尽量不要使用 select * from your_table 这样的方式,用到哪些列就指定哪些列。」 如 select coll, col2 from your_table ,另外, where 条件中也尽量添加过滤条件,以去掉无关的数据行,从而减少整个 MapReduce 任务中需要处理、分发的数据量
  • 「输入文件不要是大量的小文件。」 Hive 的默认 Input Split 是 128MB (可配置),小文件可先合并成大文件。

在保证了上述几点之后,有的时候发现 Hive SQL 还是要运行很长时间,甚至运行不出来, 这时就需要真正的 Hive 优化技术了!

三、Join 无关的优化

Hive SQL 性能问题基本上大部分都和 join 相关,对于和 join 无关的问题主要有 group by 相关的倾斜和 count distinct 相关的优化。

group by 引起的倾斜优化

group by 引起的倾斜主要是输入数据行按照 「group by 列分布不均匀」 引起的。

比如,假设按照供应商对销售明细事实表来统计订单数,那么部分大供应商的订单量显然非常多,而多数供应商的订单量就一般,由于 group by 的时候是按照供应商的 ID 分发到每个 Reduce Task ,那么此时分配到大供应商的 Reduce Task 就分配了更多的订单,从而导致数据倾斜。

对于 group by 引起的倾斜,优化措施非常简单,只需设置下面参数即可:

 

  1. set hive.map.aggr = true  
  2.    set hive.groupby.skewindata=true 

此时Hive 在数据倾斜的时候会进行负载均衡,生成的查询计划会有两个 MapReduce Job。

  • 第一个 MapReduce Job 中,Map 的输出结果集合会随机分布到 Reduce 中,每个Reduce 做部分聚合操作并输出结果。这样处理的结果是相同的 GroupBy Key 有可能被分布到不同的 Reduce 中,从而达到负载均衡的目的;
  • 第二个 MapReduce Job 再根据预处理的数据结果,按照 GroupBy Key 分布到 Reduce 中(这过程可以保证相同的GroupBy Key被分布到同一个Reduce中),最后完成最终的聚合操作。

count distinct 优化

在 Hive 开发过程中,应该小心使用 count distinct ,因为很容易引起性能问题,比如下面的 SQL:

  1. select count(distinct userfrom some_table 

由于必须去重,因此 Hive 将会把 Map 阶段的输出全部分布到 Reduce Task 上,此时很容易引起性能问题。对于这种情况,可以通过先 group by 再 count 的方式来优化,优化后的 SQL 如下:

 

  1. select count(*) from ( 
  2.    select user  
  3.    from some_table  
  4.    group by user 
  5.    ) tmp; 

原理为:先利用 group by 去重,再统计 group by 的行数目。

四、大表 Join 小表优化

join 相关的优化主要分为 mapjoin 可以解决的优化 ( 即大表 join 小表) 和 mapjoin 无法解决的优化( 即大表 join 大表 )。大表 join 小表相对容易解决,大表 join 大表相对复杂和难以解决,但也不是不可解决的,只是相对比较麻烦而已。

首先介绍大表 join 小表优化 。仍以销售明细事实表为例来说明大表 join 小表的场景。

假如供应商会进行评级,比如(五星、四星、 两星、 一星),此时业务人员希望能够分析各供应商星级的每天销售情况及其占比。

开发人员一般会写出如下 SQL:

 

  1. select Seller_srar, count(order_id) as ordre_cnt 
  2.    from ( 
  3.    select order_id,seller_id  
  4.        from dwd_sls_fact_detail_table 
  5.        where partition_value ='20170101' 
  6.    ) a 
  7.    Left outer join
  8.    select seller_id,seller_star 
  9.        from dim_seller 
  10.        where partition_value='20170101' 
  11.    ) b 
  12.    on a.seller_id = b.seller_id 
  13.    group by b.seller_star; 

但正如上述所言,现实世界的二八准则将导致订单集中在部分供应商上,而好的供应商的评级通常会更高,此时更加剧了数据倾斜的程度。如果不加以优化,上述 SQL 将会耗费很长时间,甚至运行不出结果!

通常来说,供应商是有限的,比如上千家、上万家,数据量不会很大,而销售明细事实表比较大,这就是典型的大表 join 小表问题,可以通过 mapjoin 的方式来优化,只需添加 mapjoin hint 即可,优化后的 SQL 如下:

 

  1. select /*+mapjoin(b)*/ Seller_srar, count(order_id) as ordre_cnt 
  2. from ( 
  3. select order_id,seller_id  
  4.     from dwd_sls_fact_detail_table 
  5.     where partition_value ='20170101' 
  6. ) a 
  7. Left outer join
  8. select seller_id,seller_star 
  9.     from dim_seller 
  10.     where partition_value='20170101' 
  11. ) b 
  12. on a.seller_id = b.seller_id 
  13. group by b.seller_star; 

 

/*+mapjoin(b)*/ 即 mapjoin himt,如果需要 mapjoin 多个表,则格式为/*+mapjoin(b,c,d)*/ 。

Hive 对于 mapjoin 是默认开启的,设置参数为:

  1. Set hive.auto.convert.join=ture; 

mapjoin 优化是在 Map 阶段进行 join ,而不是像通常那样在 Reduce 阶段按照 join 列进行分发后在每个 Reduce 任务节点上进行 join ,不需要分发也就没有倾斜的问题,相反 Hive 会将小表全量复制到每个 Map 任务节点(对于本例是 dim_seller ,当然仅全量复制 b表 sql 指定的列),然后每个 Map 任务节点执行 lookup 小表即可。

「从上述分析可以看出,小表不能太大,否则全量复制分发得不偿失。」

  • 实际上 Hive 根据参数 hive.mapjoin.smalltable.filesize ( 0.11.0 本后是 hive.auto.convert.join.noconditionaltask.size )来确定小表的大小是否满足条件(默认 25M)。
  • 实际中此参数值所允许的最大值可以修改,但是一般最大不能超过 1GB (太大的话 Map 任务所在的节点内存会撑爆, Hive 会报错 。另外需要注意的是, HDFS 显示的文件大小是压缩后的大小, 当实际加载到内存的时候,容量会增大很多,很多场景下可能会膨胀 10 倍)。

五、大表 Join 大表优化

如果上述 mapjoin 中小表 dim_seller 很大呢?比如超过了 1GB 的大小?这种就是大表join 大表的问题 。

这类问题相对比较复杂,我们首先引入具体的问题场景,然后基于此介绍各种优化方案。

问题场景

我们先假设一个问题场景:

  • A 表为一个汇总表,汇总的是卖家买家最近 N 天交易汇总信息,即对于每个卖家最近 N 天,其每个买家共成交了多少单、总金额是多少,我们这里 N 先只取 90 天,汇总值仅取成交单数 。A 表的字段有:buyer_id 、seller_id 和 pay_cnt_90d 。
  • B 表为卖家基本信息表,其中包含卖家的一个分层评级信息,比如把卖家分为 6 个级别:S0、S1、S2、S3、S4、S5、S6 。

要获得的结果是每个买家在各个级别卖家的成交比例信息,比如:

  • 某买家 S0:10%; S1:20%; S2:20%; S3:10%; S4:20%; S4:10%; S5:10%。
  • B表的字段有:seller_id 和 s_level。

正如 mapjoin 中的例子一样,我们的第一反应是直接 join 表并统计:

 

  1. select  
  2. m.buyer_id  
  3. ,sum(pay_cnt_90d) as pay_cnt_90d  
  4. ,sum(case when m.s_level=O then pay_cnt_90d endas pay_cnt_90d_s0  
  5. ,sum(case when m.s_level=l then pay_cnt_90d endas pay_cnt_90d_sl  
  6. ,sum(case when m.s_level=2 then pay_cnt_90d endas pay_cnt_90d_s2  
  7. ,sum(case when m.s level=3 then pay cnt 90d endas pay_cnt_90d_s3 
  8. ,sum(case when m.s_level=4 then pay_cnt_90d endas pay_cnt_90d_s4  
  9. ,sum(case when m.s_level=S then pay_cnt_90d endas pay_cnt_90d_s5  
  10. from  
  11. select  
  12. a.buyer_id,a.seller_id,b.s_level,a.pay_cnt_90d  
  13. from  
  14. select buyer_id ,seller_id,pay_cnt_90d  
  15. from table A  
  16. ) a  
  17. join  
  18. select seller_id,s_level  
  19. from table B  
  20. ) b  
  21. on a.seller_id=b.seller_id  
  22. ) m  
  23. group by m.buyer_id 

但是此 SQL 会引起数据倾斜,原因在于卖家的二八准则。某些卖家 90 天内会有几百万甚至上千万的买家,但是大部分卖家 90 天内的买家数目并不多, join table_A 和table_B 的时候 ODPS 会按照 Seller_id 进行分发, table_A 的大卖家引起了数据倾斜。

「但是本数据倾斜问题无法用 mapjoin table_B 解决,因为卖家有超过千万条、文件大小几个GB ,超过了 mapjoin 表最大 1GB 的限制。」

方案 1:转化为 mapjoin

大表无法直接mapjoin,那么是否可以间接呢?实际上此思路有两种途径:限制行和限制列。

  • 限制行: 不需要join B全表,只需要join其在A表中存在的。对于本问题场景,就是过滤掉 90 天内没有成交的卖家。
  • 限制列: 只取需要的字段。

 

  1. select  
  2.  m.buyer_id  
  3.  ,sum(pay_cnt_90d) as pay_cnt_90d  
  4.  ,sum(case when m.s_level=O then pay_cnt_90d endas pay_cnt_90d_s0  
  5.  ,sum(case when m.s_level=l then pay_cnt_90d endas pay_cnt_90d_sl  
  6.  ,sum(case when m.s_level=2 then pay_cnt_90d endas pay_cnt_90d_s2  
  7.  ,sum(case when m.s level=3 then pay cnt 90d endas pay_cnt_90d_s3 
  8.  ,sum(case when m.s_level=4 then pay_cnt_90d endas pay_cnt_90d_s4  
  9.  ,sum(case when m.s_level=S then pay_cnt_90d endas pay_cnt_90d_s5  
  10.  from  
  11.  ( 
  12.  select /*+mapjoin(b)*/ 
  13.  a.buyer_id,a.seller_id,b.s_level,a.pay_cnt_90d  
  14.  from  
  15.  ( 
  16.  select buyer_id ,seller_id,pay_cnt_90d  
  17.  from table_A  
  18.  ) a  
  19.  join  
  20.  ( 
  21.  select b0.seller id,s_level  
  22.  from table_B b0 
  23.      join 
  24.      (select seller_id from table_A group by seller_id) a0 
  25.      on b0.seller_id=a0.seller_id 
  26.  ) b  
  27.  on a.seller_id=b.seller_id  
  28.  ) m  
  29.  group by m.buyer_id 

此方案在一些情况下可以起作用,但很多时候还是无法解决上述问题,因为大部分卖家尽管 90 买家不多 ,但还是有一些的,过滤后的 B 表仍然很大。

方案 2:join 时用 case when 语句

应用场景为: 倾斜的值是明确的而且数量很少,比如null值引起的倾斜。

将这些引起倾斜的值随机分发到Reduce,其主要核心逻辑在于 join 时对这些特殊值concat 随机数,从而达到随机分发的目的。核心逻辑如下:

 

  1. Select a.user_id,a.order_id,b.user_id  
  2.   From table_a a  
  3.   Join table_b b  
  4.   On (case when a.user_id is null then concat ('hive' ,rand()) else a.user_id end)=b.user_id 

Hive已对此进行了优化,不需要修改SQL,只需要设置参数;比如 table_B 的值 "0" 和 "1" 引起倾斜,只需要如下设置:

 

  1. set hive.optimize.skewinfo=table_B:(seller_id)[("0")("1")]; 
  2.    set hive.optimize.skewjoin=true

但是方案二还是不能解决上述问题,因为倾斜的卖家大量存在而且动态变化。

方案 3:倍数B表,再取模join

通用方案

是建立一个numbers表,其值只有一列int行,比如从1到10(具体根据倾斜程度确定),然后放大B表10倍,再取模join。

 

  1. select  
  2.   m,buer_id 
  3.   ,sum(pay_cnt_90d) as pay_cnt_90d  
  4.   ,sum(case when m.s_level=O then pay_cnt_90d endas pay cnt 90d so  
  5.   ,sum(case when m.s_level=l then pay cnt 90d endas pay cnt 90d_sl  
  6.   ,sum(case when m.s_level=2 then pay_cnt_90d endas pay_cnt_90d s2  
  7.   ,sum(case when m.s_level=3 then pay_cnt_90d endas pay_cnt_90d_s3  
  8.   ,sum(case when m.s_level=4 then pay_cnt_90d endas pay cnt 90d s4  
  9.   ,sum(case when m.s level=S then pay cnt 90d endas pay cnt 90d s5  
  10.   from  
  11.   ( 
  12.   select  
  13.   a.buyer_id,a.seller_id,b.s_level,a.pay_cnt_90d  
  14.   from 
  15.   ( 
  16.   select buyer_id,seller_id,pay_cnt_90d  
  17.   from table_A  
  18.   ) a  
  19.   JOin  
  20.   ( 
  21.   select /*+mapjoin(members)*/  
  22.   seller_id,s_level,member  
  23.   from table_B  
  24.   join  
  25.   numbers  
  26.   ) b  
  27.   on a.seller_id=b.seller_id  
  28.   and mod(a.pay_cnt_90d,10)+1=b.number  
  29.   ) m  
  30.   group by m.buyer_id 

思路核心在于:既然按照seller_id分发会倾斜,那么再人工增加一列进行分发,这样之前倾斜的值的倾斜程度会减少为原来的1/10。可以通过配置numbers表修改放大倍数来降低倾斜程度,但弊端就是B表会膨胀N倍。

专有方案

通用方案思路是把B表的每条数据都放大了相同的倍数,实际上只需要把大卖家放大倍数即可。

首先需要知道大卖家的名单,即先建立一个临时表动态存放每日最新的大卖家(比如dim_big_seller),同时此表的大卖家要膨胀预先设定的倍数(比如1000倍)。

在A表和 B表中分别新建一个 join 列,其逻辑为:如果是大卖家,那么 concat 一个随 机分配正整数(0到预定义的倍数之间,本例为0~1000 );如果不是,保持不变。

 

Hive数据倾斜案例讲解

相比通用方案,专用方案的运行效率明显好了很多,因为只是将B表中大卖家的行数放大了 1000 倍,其他卖家的行数保持不变,但同时也可以看到代码也复杂了很多,而且必须首先建立大卖家表。

方案 4:动态一分为二

实际上方案 2 和 3 都用到了一分为二的思想,但是都不彻底,对于 mapjoin 不能解决的 问题,终极解决方案就是动态一分为 ,即对倾斜的键值和不倾斜的键值分开处理,不倾 斜的正常 join 即可,倾斜的把它们找出来然后做 mapjoin ,最后 union all 其结果即可。

但是此种解决方案比较麻烦,代码会变得复杂而且需要一个临时表存放倾斜的键值。

 

Hive数据倾斜案例讲解

- 对于 90 天买家数超过 10000 的卖家直接 map join ,对于其他卖家正常 join 即可

 

  1. - 对于 90 天买家数超过 10000 的卖家直接 map join ,对于其他卖家正常 join 即可 
  2. select  
  3. m.buyer_id  
  4. ,sum(pay_cnt_90d) as pay_cnt_90d  
  5. ,sum(case when rn.s_level=O then pay_cnt_90d endas pay_cnt_90d_s0  
  6. ,sum(case when rn.s_level=l then pay_cnt_90d endas pay_cnt_90d_sl  
  7. ,sum(case when rn.s_level=2 then pay_cnt_90d endas pay_cnt_90d_s2  
  8. ,sum(case when rn.s_level=3 then pay_cnt_90d endas pay_cnt_90d_s3  
  9. ,sum(case when rn.s_level=4 then pay_cnt_90d endas pay_cnt_90d_s4  
  10. ,sum(case when rn.s_level=S then pay_cnt_90d endas pay_cnt_90d_s5 
  11. from 
  12. select  
  13.     a.buyer_id,a.seller_id,b.s_level,a.pay_cnt_90d 
  14.     from 
  15.     ( 
  16.     select buyer_id,seller_id,pay_cnt_90d 
  17.         from table_A 
  18.     ) a 
  19.     join 
  20.     ( 
  21.      select seller_id ,a.s_level 
  22.         from table_A a 
  23.         left outer join tmp_table_B b 
  24.         on a.user_id = b.seller_id 
  25.         where b.seller_id is null 
  26.     ) b  
  27. on a.seller id=b.seller id  
  28. union all  
  29. select /*+mapjoin(b)*/  
  30. a.buyer_id,a.seller_id,b.s_level,a.pay_cnt_90d  
  31. from  
  32. select buyer_id,seller_id,pay_cnt_90d  
  33. from table A  
  34. ) a  
  35. join  
  36. select seller_id,s_level  
  37. from table B  
  38. ) b  
  39. on a.seller id=b.seller id 
  40. ) m group by m.buyer_id 
  41. ) m 
  42. group by m.byer_id 

总结起来,方案 1、2 以及方案 3 中的通用方案不能保证解决大表 join 大表问题,因为它们都存在种种不同的限制和特定的使用场景。

而方案 3 的专用方案和方案 4 是比较推荐的优化方案,但是它们都需要新建一个临时表来存放每日动态变化的大卖家 。

相对方案 4 来说,方案 3 的专用方案不需要对代码框架进行修改,但是 B 表会被放大,所以一定要是维度表,不然统计结果会是错误的 。方案 4 的解决方案最通用,自由度最高,但是对代码的更改也最大,甚至需要更改代码框架,可作为终极方案来使用。

责任编辑:未丽燕 来源: 云祁QI
相关推荐

2021-08-04 07:21:31

Hive 数据排查

2021-04-22 07:21:55

Hive数据倾斜

2023-05-06 07:20:27

HiveDDL管理表

2023-05-06 07:15:59

Hive内置函数工具

2023-05-11 00:17:44

分区HiveReduce

2018-10-30 13:01:57

磁盘故障案例

2023-05-03 22:09:02

Hive分区工具,

2022-02-23 12:07:20

分布式Spark数据倾斜

2023-07-26 07:22:32

2010-06-18 15:01:12

SharePoint

2022-11-23 07:30:11

2009-10-27 15:49:11

VB.NET分辩率

2009-10-28 17:23:19

linux配置MySQ

2009-09-29 14:03:14

Hibernate数据

2020-04-01 11:05:24

Spark数据倾斜Hadoop

2022-12-12 08:13:27

Redis数据倾斜

2023-11-26 00:13:16

开源数据Logstash

2011-08-17 14:32:44

iOS开发绘制

2016-11-11 20:16:23

数据倾斜spark

2009-11-09 09:23:10

WCF数据契约
点赞
收藏

51CTO技术栈公众号