Hadoop数据倾斜问题

数据倾斜:大量的key被partition分配到一个分区里,mapreduce程序执行时,导致承担大量key的reduce节点运行慢,而由于木桶效应,整个程序的处理时间取决于最后的reduce节点,这就是数据倾斜。直观解释就是:忙的忙死,闲的闲死。

解决方案:

   1.增加jvm(java虚拟机)内存。

   2.增加reduce的个数。

   3.自定义分区,用户自己继承partition类,指定分区策略,这种方式效果比较显著。

   4.重新设计key,在map阶段时给key加上一个随机数,有了随机数的key就不会被大量的分配到同一节点,待到reduce后再把随机数去掉即可。在map阶段将造成倾斜的key先分成多组,例如aaa这个key,map时随机在aaa后面加上1,2,3,4这四个数字之一,把key先分成四组,先进行一次运算,之后再恢复key进行最终运算。

   5.使用combinner合并,combinner是在map阶段,reduce之前的一个中间阶段,在这个阶段可以选择性的把大量的相同key数据先进行一个合并,可以看做是local reduce,然后再交给reduce来处理,这样不但减轻了map端向reduce端发送的数据量(减轻了网络带宽),也减轻了map端和reduce端中间的shuffle阶段的数据拉取数量(本地化磁盘IO速率),推荐使用这种方法。

  6.能先进行group操作的时候先进行group操作,把key先进行一次reduce,之后再进行count或者distinct count操作。

  7.join操作中,使用map join在map端就先进行 join,免得到reduce 时卡住。

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值