Spark Shuffle过程理解

reduceByKey举例:

在spark中,数据通常不会为了一个特定的操作而分布在特定的分区partitions。在计算过程中,一个task只会在一个partition分区上执行,因此,为了把所有的数据组织到一个reduce task (例如reduceByKey)中执行,Spark需要执行一个all-to-all操作,该操作需要读取所有partition上key value的值,然后将他们聚合在一起,然后针对每个key进行计算。这个过程就叫做shuffle;

可以引起shuffle操作的算子有 repartition操作:repartitioncoalesce;各种'ByKey操作(除过counting):groupByKeyreduceByKey;及join操作:cogroupjoin


shuffle过程会在磁盘中产生大量的中间文件;自spark1.3起,这些中间文件会一直保存着,直到对应的RDD不再使用,或者被GC处理了。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值