Shuffle Read Time调优

先看第一张Spark任务执行时间轴的图:
红色部分是任务反序列化时间,黄色部分是shuffle read时间,绿色是实际计算任务执行时间,这里我们先不讨论任务反序列化时间长,下一篇文章说任务反序列化时间长怎么解决
在这里插入图片描述

1、首先shuffle read time是什么?
shuffle发生在宽依赖,如repartition、groupBy、reduceByKey等宽依赖算子操作中,在这些操作中会对Dataset数据集按照给定的规则重新洗牌,洗牌完成之后会落盘。然后对应的分区会被对应任务fetch到任务所在节点进行计算。这个fetch的过程所消耗的时间就是shuffle read time。
2、shuffle read time长短跟什么相关?
数据量、网络IO、资源、参数配置、并发度
3、以上图片里这种情况,可以看到shuffle read time比较均匀,优化方式:

  • 如果使用的序列化方式不是kryo,先将序列化和反序列化方式换成kryo
  • 将以下两个参数做适当调整
    spark.reducer.maxReqsInFlight=512
    单次最大拉取请求数,这个设置过大容易造成分区数据所在节点压力大,设置太小会大大影
  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值