Spark项目实战-troubleshooting之控制shuffle reduce端缓冲大小以避免OOM

一、reduce缓冲机制

如下,我们知道shuffle的map端task是不断输出数据的,数据量可能是很大的。 但是其实reduce端的task,并不是等到map端task将属于自己的那份数据全部写入磁盘文件之后再去拉取的。map端写一点数据,reduce端task就会拉取一小部分数据,立即进行后面的聚合、算子函数的应用。每次reduece能够拉取多少数据,就由缓冲buffer来决定。因为拉取过来的数据,都是先放在buffer中的。然后才用后面的executor分配的堆内存占比(0.2)去进行后续的聚合、函数的执行。 

二、reduce端缓冲(buffer),可能会出什么问题?

默认情况下该buffer的大小是48MB,也许大多数时候,reduce端task一边拉取一边计算,不一定一直都会拉满48M的数据。可能大多数时候,拉取个10M数据就计算掉了,所以大多数时候不会出现什么问题。但是有的时候,map端的数据量特别大,然后写出的速度特别快。reduce端所有task拉取的时候,全部达到自己的缓冲的最大极限值,缓冲48M全部填满。 这个时候,再加上你的reduce端执行的聚合函数的代码,可能会创建大量的对象。可能一下子内存就撑不住了就会OOM,reduce端的内存中,就会发生内存溢出的问题。

三、针对上述的可能出现的问题,我们该怎么来解决呢?

这个时候,就应该减少reduce端task缓冲的大小。宁愿多拉取几次,但是每次同时能够拉取到reduce端每个task的数量,比较少,就不容易发生OOM内存溢出的问题。(比如,可以调节成12M) 在实际生产环境中,我们都是碰到过这种问题的。这是典型的以性能换执行的原理。reduce端缓冲小了,不容易OOM,但是性能一定是有所下降的,你要拉取的次数就多了。就走更多的网络传输开销。

这种时候,只能采取牺牲性能的方式了。spark作业首先第一要义,就是一定要让它可以跑起来。

reduce端缓冲大小的另外一面,关于性能调优的一面: 假如说,Map端输出的数据量也不是特别大,然后整个application的资源也特别充足。200个executor、5个cpu core、10G内存。 其实可以尝试去增加这个reduce端缓冲大小的,比如从48M变成96M。那么这样的话,每次reduce task能够拉取的数据量就很大。需要拉取的次数也就变少了。比如原先需要拉取100次,现在只要拉取50次就可以执行完了。 对网络传输性能开销的减少,以及reduce端聚合操作执行的次数的减少都是有帮助的。 最终达到的效果,就应该是性能上的一定程度上的提升。

四、参数设置

SparkConf conf = new SparkConf()
    .set("spark.reducer.maxSizeInFlight", "24");

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值