【笔记】Mapreduce数据倾斜与优化

本文详细探讨了MapReduce中的数据倾斜问题,包括产生原因、常见场景及四种解决方案:增加Reduce JVM内存、增加Reduce个数、自定义Partition和使用Combiner。同时,文章深入分析了MapReduce的优化,重点讲解了Combiner的作用、好处和适用场景,以及Partitioner在负载均衡和效率提升上的功能。
摘要由CSDN通过智能技术生成

一、数据倾斜

数据分布:

正常的数据分布理论上都是倾斜的,就是我们所说的20-80原理:80%的财富集中在20%的人手中, 80%的用户只使用20%的功能 , 20%的用户贡献了80%的访问量 。

1.产生原因:
Mapreduce程序在运行的时候,运行了大部分,但是还有部分reduce还在运行,甚至长时间运行,最终导致整个程序运行时间很长才结束。

造成这种现象的主要原因是:

reduce程序处理的key的条数比其他key的条数大很多,这也就造成了分配到数据巨大的key的节点长时间运行。本质讲数据倾斜就是数据分布不均。

2.出现场景
不同的数据字段可能的数据倾斜一般有两种情况:

一种是唯一值非常少,极少数值有非常多的记录值(唯一值少于几千)

一种是唯一值比较多,这个字段的某些值有远远多于其他值的记录数,但是它的占比也小于百分之一或千分之一。

3.解决方案
方式1:增加reduce 的jvm内存

既然reduce 本身的计算需要以合适的内存作为支持,在硬件环境容许的情况下,增加reduce 的内存大小显然有改善数据倾斜的可能,这种方式尤其适合数据分布第一种情况,单个值有大量记录, 这种值的所有纪录已经超过了分配给reduce 的内存,无论你怎么样分区这种情况都不会改变。

方式2: 增加reduce 个数

这个对于数据分布第二种情况有效,唯一值较多,单个唯一值的记录数不会超过分配给reduce 的内存. 如果发生了偶尔的数据倾斜情况,增加reduce 个数可以缓解偶然情况下的某些reduce 不小心分配了多个较多记录数的情况. 但是对于第一种数据分布无效。

方式3: 自

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MapReduce数据倾斜是指在MapReduce任务中,某些Map任务处理的数据量远远超过其他Map任务,导致整个任务的效率降低。数据倾斜问题是MapReduce中常见的性能瓶颈之一。以下是解决MapReduce数据倾斜问题的几种方法: 1. 均匀划分数据:在MapReduce任务中,数据均匀划分是防止数据倾斜的最有效的方法之一。可以通过对数据进行采样,来确定数据均匀划分的划分点。 2. Combiner函数:Combiner函数可以在Map阶段对数据进行合并处理,减少Map输出数据量,从而降低Reduce任务的负担。可以在Combiner函数中对于一些key进行合并处理,减少数据倾斜。 3. 调整Reduce任务数量:当Reduce任务的数量过少时,会导致某些Reduce任务的数据处理量过大,从而产生数据倾斜。可以通过增加Reduce任务的数量来解决这个问题。 4. 增加Map任务数量:增加Map任务的数量,可以将数据均匀地分散到更多的Map任务中去,从而减少数据倾斜。 5. 动态调整Map任务输入数据:可以根据Map任务处理的数据量来动态调整数据的输入,将处理量较大的数据均匀分散到多个Map任务中。可以通过自定义InputFormat来实现这个功能。 6. 使用随机数进行分桶:将数据随机分配到多个桶中,通过增加桶的数量来增加Map任务的数量,从而将数据均匀分散到多个Map任务中。这个方法需要保证随机数分配的均匀性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值