Spark七:Spark数据倾斜

11 篇文章 0 订阅

Spark数据倾斜

Spark中的数据倾斜问题主要指shuffle过程中出现的数据倾斜问题,由不同的key对应的数据量不同导致的不同task所处理的数据量不同的问题

本节学习数据倾斜问题的避免与缓解。

学习资料:https://mp.weixin.qq.com/s/caCk3mM5iXy0FaXCLkDwYQ


例如reduced端一共要处理100w条数据,第一个和第二个task分别分配到了1w条数据,5min内计算完成,第三个task分配到了98w条数据,可能需要10h完成,这使得整个Spark作业需要10个小时才能运行完成。

一、数据倾斜的表现与定位

数据倾斜的表现:

  1. Spark作业的大部分task都执行迅速,只有有限的几个task执行非常慢, ,此时可能出现了数据倾斜,作业可以运行,但是运行得非常慢;
  2. Spark作业的大部分task都执行迅速,但是有的task在运行过程中突然爆出OOM,反复执行几次都在某一个task爆出OOM错误,此时可能出现了数据倾斜,作业无法正常运行。

数据倾斜的问题定位:
3. 查阅代码中的shuffle算子,例如reduceByKey,countByKey,groupByKey,join等算子,根据代码逻辑判断是否会出现数据倾斜;
4. 查看Spark作业log文件,log对于错误的记录会精确到代码的某一行,可以根据异常定位到的代码位置来明确错误发生在第几个stage,对应的shuffle算子是哪一个;

二、预聚合原始数据

2.1 避免shuffle过程

大多数情况下,Spark作业的来源数据都是Hive表,为了避免数据倾斜,可以考虑避免shuffle过程。避免了shuffle过程,那么从根本上就消除了发生数据倾斜问题的可能。


如果Spark作业的数据来源于Hive表,那么可以现在Hive表中对数据进行聚合,例如按照key进行分组:
将同一key对应的所有value用一种特殊的格式拼接到一个字符串里去,这样,一个key就只有一条数据了;
对一个key的所有value进行处理时,只需要进行map操作即可,无需再进行任何的shuffle操作。

2.2 增大key粒度(减小数据倾斜可能性,增大每个task的数据量)

如果没有办法对每个key聚合出来一条数据,在特定场景下,可以考虑扩大key的聚合粒度。


例如,目前有10万条用户数据,当前key的粒度是(省,城市,区,日期),现在我们考虑扩大粒度,将key的粒度扩大为(省,城市,日期),这样的话,key的数量会减少,key之间的数据量差异也有可能会减少,由此可以减轻数据倾斜的现象和问题。(此方法只针对特定类型的数据有效,当应用场景不适宜时,会加重数据倾斜)

三、预处理导致倾斜的key

3.1 过滤

如果在Spark作业中允许丢弃某些数据,那么可以考虑将可能导致数据倾斜的key进行过滤,滤除可能导致数据倾斜的key对应的数据,这样,在Spark作业中就不会发生数据倾斜了。

3.2 使用随机key

当使用了类似于groupByKey、reduceByKey这样的算子时,可以考虑使用随机key实现双重聚合,如下图所示:
在这里插入图片描述
过程如下:

  1. 通过map算子给每个数据的key添加随机数前缀,对key进行打散,将原先一样的key变成不一样的key
  2. 进行第一次聚合
  3. 让原本被一个task处理的数据分散到多个task上去做局部聚合;
  4. 去除掉每个key的前缀,再次进行聚合。

适用场景:对于由groupByKey、reduceByKey这类算子造成的数据倾斜有比较好的效果,仅仅适用于聚合类的shuffle操作,适用范围相对较窄。如果是join类的shuffle操作,还得用其他的解决方案。

3.3 sample采样对倾斜key单独进行join

在Spark中,如果某个RDD只有一个key,那么在shuffle过程中会默认将此key对应的数据打散,由不同的reduce端task进行处理


所以当由单个key导致数据倾斜时,可将发生数据倾斜的key单独提取出来,组成一个RDD;
然后用这个原本会导致倾斜的key组成的RDD和其他RDD单独join;
根据Spark的运行机制,此RDD中的数据会在shuffle阶段被分散到多个task中去进行join操作。
在这里插入图片描述
适用场景:
对于RDD中的数据,可以将其转换为一个中间表,或者是直接使用countByKey()的方式,看一下这个RDD中各个key对应的数据量,此时如果你发现整个RDD就一个key的数据量特别多,那么就可以考虑使用这种方法。

数据量非常大时,可以考虑使用sample采样获取10%的数据,然后分析这10%的数据中哪个key可能会导致数据倾斜,然后将这个key对应的数据单独提取出来。

不适用场景:
如果一个RDD中导致数据倾斜的key很多,那么此方案不适用。

四、提高reduce并行度

当方案一和方案二对于数据倾斜的处理没有很好的效果时,可以考虑提高shuffle过程中的reduce端并行度,reduce端并行度的提高就增加了reduce端task的数量,那么每个task分配到的数据量就会相应减少,由此缓解数据倾斜问题。

4.1 reduce端并行度设置

在大部分的shuffle算子中,都可以传入一个并行度的设置参数,比如reduceByKey(500),这个参数会决定shuffle过程中reduce端的并行度,在进行shuffle操作的时候,就会对应着创建指定数量的reduce task。
对于Spark SQL中的shuffle类语句,比如group by、join等,需要设置一个参数,即spark.sql.shuffle.partitions,该参数代表了shuffle read task的并行度,该值默认是200,对于很多场景来说都有点过小。

4.2 reduce端并行度设置存在的缺陷

提高reduce端并行度并没有从根本上改变数据倾斜的本质和问题(方案一和方案二从根本上避免了数据倾斜的发生),只是尽可能地缓解和减轻shuffle reduce task的数据压力,以及数据倾斜的问题,适用于有较多key对应的数据量都比较大的情况。

五、使用map join

正常情况下,join操作都会执行shuffle过程,并且执行的是reduce join,也就是先将所有相同的key和对应的value汇聚到一个reduce task中,然后再进行join。普通join的过程如下图所示:
在这里插入图片描述
普通join是会走shuffle过程的,而一旦shuffle,就相当于会将相同key的数据拉去到一个shuffle read task中在进行join,此时就是reduce join。但是如果一个RDD是比较小的,则可以采用广播小RDD全量数据+map算子来实现与join同样的效果,也就是map join,此时就不会发生shuffle操作,也就不会发生数据倾斜。

注意:RDD是并不能直接进行广播的,只能将RDD内部的数据通过collect拉取到Driver内存然后再进行广播。

5.1 核心思路

不使用join算子进行连接操作,而使用broadcast变量与map类算子实现join操作,进而完全规避掉shuffle类的操作,彻底避免数据倾斜的发生和出现。


  1. 将较小RDD中的数据直接通过collect算子拉取到Driver端的内存中来,然后对其创建一个broadcast变量;
  2. 对另外一个RDD执行map类算子,在算子函数内,从broadcast变量中获取较小RDD的全量数据,与当前RDD的每一条数据按照连接key进行比对,如果连接key相同的话,那么就将两个RDD的数据用你需要的方式连接起来。

适用场景:当join操作有数据倾斜问题并且其中一个RDD的数据量较小时,可以优先考虑这种方式,效果非常好。
map join过程:
在这里插入图片描述
不适用场景:由于Spark的广播变量是在每个Executor中保存一个副本,如果两个RDD数据量都比较大,那么如果将一个数据量比较大的RDD做成广播变量,那么很有可能会造成内存溢出。

  • 29
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值