Spark Shuffle的Write阶段和Read阶段

Spark在DAG调度阶段会将一个Job划分为多个Stage,上游Stage做map工作,下游Stage做reduce工作,其本质上还是MapReduce计算框架。Shuffle是连接map和reduce之间的桥梁,它将map的输出对应到reduce输入中,涉及到序列化反序列化、跨节点网络IO以及磁盘读写IO等。

shuffle.png

Spark的Shuffle分为Write和Read两个阶段,分属于两个不同的Stage,前者是Parent Stage的最后一步,后者是Child Stage的第一步。

执行Shuffle的主体是Stage中的并发任务,这些任务分ShuffleMapTask和ResultTask两种,ShuffleMapTask要进行Shuffle,ResultTask负责返回计算结果,一个Job中只有最后的Stage采用ResultTask,其他的均为ShuffleMapTask。如果要按照map端和reduce端来分析的话,ShuffleMapTask可以即是map端任务,又是reduce端任务,因为Spark中的Shuffle是可以串行的;ResultTask则只能充当reduce端任务的角色。

stage

Spark在1.1以前的版本一直是采用Hash Shuffle的实现的方式,到1.1版本时参考Hadoop MapReduce的实现开始引入Sort Shuffle,在1.5版本时开始Tungsten钨丝计划,引入UnSafe Shuffle优化内存及CPU的使用,在1.6中将Tungsten统一到Sort Shuffle中,实现自我感知选择最佳Shuffle方式,到的2.0版本,Hash Shuffle已被删除,所有Shuffle方式全部统一到Sort Shuffle一个实现中。

1692771388826_2.png

在Spark的中,负责shuffle过程的执行、计算和处理的组件主要就是ShuffleManager,也即shuffle管理器。ShuffleManager随着Spark的发展有两种实现的方式,分别为HashShuffleManager和SortShuffleManager,因此spark的Shuffle有Hash Shuffle和Sort Shuffle两种。

在Spark 1.2以前,默认的shuffle计算引擎是HashShuffleManager。该ShuffleManager而HashShuffleManager有着一个非常严重的弊端,就是会产生大量的中间磁盘文件,进而由大量的磁盘IO操作影响了性能。

因此在Spark 1.2以后的版本中,默认的ShuffleManager改成了SortShuffleManager。SortShuffleManager相较于HashShuffleManager来说,有了一定的改进。主要就在于,每个Task在进行shuffle操作时,虽然也会产生较多的临时磁盘文件,但

是最后会将所有的临时文件合并(merge)成一个磁盘文件,因此每个Task就只有一个磁盘文件。在下一个stage的shuffle read task拉取自己的数据时,只要根据索引读取每个磁盘文件中的部分数据即可。

Shuffle前十今生

Shuffle阶段划分:

shuffle write:mapper阶段,上一个stage得到最后的结果写出

shuffle read :reduce阶段,下一个stage拉取上一个stage进行合并

1)未经优化的hashShuffleManager:

HashShuffle是根据task的计算结果的key值的hashcode%ReduceTask来决定放入哪一个区分,这样保证相同的数据一定放入一个分区,Hash Shuffle过程如下:

Shuffle阶段划分

根据下游的task决定生成几个文件,先生成缓冲区文件在写入磁盘文件,再将block文件进行合并。

未经优化的shuffle write操作所产生的磁盘文件的数量是极其惊人的。提出如下解决方案

2)经过优化的hashShuffleManager:

在shuffle write过程中,task就不是为下游stage的每个task创建一个磁盘文件了。此时会出现shuffleFileGroup的概念,每个shuffleFileGroup会对应一批磁盘文件,每一个Group磁盘文件的数量与下游stage的task数量是相同的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
SparkShuffle阶段是指在数据处理过程中,将数据重新分区和排序的过程。它是Spark中非常重要的一个阶段,用于将数据从上一个阶段的任务输出到下一个阶段的任务。 在Shuffle阶段中,有两个主要的操作:shuffle writeshuffle read。 1. Shuffle Write(洗牌写入):在Mapper阶段,上一个阶段的任务将最终结果写入磁盘,并根据分区规则将数据划分到不同的分区文件中。每个分区文件对应一个Reducer任务。 2. Shuffle Read(洗牌读取):在Reducer阶段,下一个阶段的任务从上一个阶段的任务中拉取数据进行合并。这个过程涉及网络传输和数据合并操作。 Shuffle阶段的目的是为了将具有相同key的数据聚合在一起,以便后续的计算可以更高效地进行。它是Spark中性能瓶颈的一个关键点,因为涉及到大量的数据传输和磁盘IO操作。 下面是一个示例代码,演示了SparkShuffle阶段的使用: ```python # 创建SparkContext from pyspark import SparkContext sc = SparkContext("local", "Shuffle Example") # 创建RDD data = [1, 2, 3, 4, 5] rdd = sc.parallelize(data) # 在map操作中使用shuffle mapped_rdd = rdd.map(lambda x: (x % 2, x)) # 在reduceByKey操作中使用shuffle reduced_rdd = mapped_rdd.reduceByKey(lambda x, y: x + y) # 打印结果 result = reduced_rdd.collect() for key, value in result: print(key, value) # 关闭SparkContext sc.stop() ``` 这个示例中,我们首先创建了一个包含1到5的RDD。然后,在map操作中,我们使用了shuffle将数据按照奇偶数进行分区。最后,在reduceByKey操作中,我们使用了shuffle将具有相同key的数据进行合并。最终,我们打印了结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值