Hive数据倾斜与解决办法

    数据倾斜是进行大数据计算时最经常遇到的问题之一。当我们在执行HiveQL或者运行MapReduce作业时候,如果遇到一直卡在map100%,reduce99%一般就是遇到了数据倾斜的问题。数据倾斜其实是进行分布式计算的时候,某些节点的计算能力比较强或者需要计算的数据比较少,早早执行完了,某些节点计算的能力较差或者由于此节点需要计算的数据比较多,导致出现其他节点的reduce阶段任务执行完成,但是这种节点的数据处理任务还没有执行完成。

一、数据倾斜原因

数据倾斜就是key分布不均匀,分发到不同的reduce上,个别reduce任务特别重,导致其他reduce都完成,而这些个别的reduce迟迟不完成的情况。导致数据倾斜的原因有:
1、key分布不均匀
2、map端数据倾斜,输入文件太多且大小不一
3、reduce端数据倾斜,分区器问题
4、业务数据本身的特征

二、解决方案

1、参数调节:
设置 hive.map.aggr = true,Map端部分聚合,相当于Combiner。
设置 hive.groupby.skewindata = true,数据倾斜的时候进行负载均衡,查询计划生成两个MR job,第一个job先进行key随机分配处理,随机分布到Reduce中,每个Reduce做部分聚合操作,先缩小数据量。第二个job再进行真正的group by key处理,根据预处理的数据结果按照Group By Key分布到Reduce中(这个过程可以保证相同的Key被分布到同一个Reduce中),完成最终的聚合操作。

2、SQL语句优化:
①、大小表Join:
使用map join让小表(小于1000行)先进内存,在map端完成reduce。
注:map join就是在map端做join,map join会把小表全部读入内存中,在map阶段直接拿另外一个表的数据和内存中表数据做匹配。

②、大表Join大表:
大表连接大表时,如果是null值造成数据倾斜,那么把null值变成一个字符串加上随机数(赋予null值新的key值),把这部分倾斜的数据分发到不同的reduce上,由于这个字符串关联不上,处理后并不影响最终结果。

③、count distinct大量相同特殊值:
count distinct时,将值为null的情况单独处理,如果是计算count distinct,可以不用处理,直接过滤,在最后结果中加1。如果还有其他计算,需要进行group by,可以先将值为空的记录单独处理,再和其他计算结果进行union。

④、采用sum() group by的方式来代替count(distinct)完成计算:
select count(distinct colA) from table1;
select count(1) from (select colA from table1 group by colA) alias_1; group by也可以去重

3、特殊情况特殊处理:
在业务逻辑优化的效果不好的情况下,可以将倾斜的数据单独拿出来处理,最后union回去。

参考:
https://github.com/polaris6/BigDataLearning/blob/ab0c3b8b15963250e51ef82158c2a1159048262f/src/hive/data_skew

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

叹了口丶气

觉得有收获就支持一下吧~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值