spark shuffle

  1. Spark Shuffle解析
    1. ShuffleMapStage与ResultStage

如图 3‑1 stage划分,

finalStage··············· 是最后一个stage,本质上是一个ResultStage对象

ShuffleMapStage······ shuffle前面所有stage

ResultStage············ 对应action算子,意味着一个job的运行结束

3‑1 stage划分

    1. HashShuffle

如图 3‑1 hashShuffle,

缓冲····················· task结果hash确定要去的reducetask,放在内存缓冲中

溢写····················· 达到阈值后溢写到临时磁盘文件

合并····················· 所有临时文件读取出来写入到最终文件,reducetask会去对应文件中拿数据,输出4个 Tasks * 3个分类文件 = 12个本地小文件。

3‑2 hashShuffle

      1. 启用合并机制的hashshuffle

如图 3‑2 启动合并机制的hashShuffle,一个executor中多个tashk线程只有一个共用的内存缓冲,输出是2个Cores * 3个分类文件 = 6个本地小文件。

3‑3 启动合并机制的hashShuffle

    1. SortShuffle

如图 3‑3 sortShuffle,

缓冲····················· 数据会先写入一个数据结构,如:reduceByKey写入Map,一边通过Map局部聚合,一遍写入内存,Join算子写入ArrayList直接写入内存中。

溢写····················· 达到阈值,先根据key进行排序,排序过后的数据,会分批(默认批次为10000条)写入到磁盘文件中。每次溢写都会产生一个磁盘临时文件。

合并····················· 所有临时文件读取出来写入到最终文件。生成索引文件,标识下游各个Task的数据在文件中的索引,start offset和end offset。

3‑4 sortShuffle

      1. bypass SortShuffle

如图 3‑4 启动bypass机制的SortShuffle,

缓冲····················· task结果hash确定要去的reducetask,放在内存缓冲中

溢写····················· 达到阈值后溢写到临时磁盘文件

合并····················· 所有临时文件读取出来写入到最终文件,生成索引文件,标识下游各个Task的数据在文件中的索引,start offset和end offset。

不会进行排序,节省掉了这部分的性能开销。

bypass运行机制的触发条件如下:

  1. shuffle reduce task数量小于spark.shuffle.sort.bypassMergeThreshold参数的值,默认为200。
  2. 不是聚合类的shuffle算子(比如reduceByKey)。

3‑5 启动bypass机制的SortShuffle

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值