Shuffle模块详解

本文深入剖析了Spark Shuffle的工作机制,包括Hash Based和Sort Based Shuffle的Write过程,详细阐述了Shuffle Write的实现原理,如数据写入、元数据管理和Consolidate Writer。接着,讨论了Shuffle Read阶段,包括数据读取策略和本地/远程数据获取。最后,文章给出了性能调优的建议,涉及shuffle.manager、shuffle.spill、shuffle.compress等相关参数。
摘要由CSDN通过智能技术生成

Shuffle过程即把数据打乱后重新汇聚到不同节点的过程

7.1 Hash Based Shuffle Write

每个ShuffleMapTask根据key的哈希值计算出每个key需要写入的Partition,然后把数据单独写入一个文件,下游的ShuffleMapTask或者ResultTask便会读取此文件进行计算

7.1.1 Basic Shuffle Write实现原理

val manager=SparkEnv.get.shuffleManager //创建ShuffleManager(Hash和Sort BasedShuffle)

创建Hash Based ShuffleManager

writer=manager.getWrite[Any,Any](dep.shuffleHandle,partitionId,context)(HashShuffleWrite和SortShuffleWriter)

得到Hash Based ShuffleWriter

writer.write(rdd.iterator(partition,context).asInstanceOf[Iterator[_<:Product2[Any,Any]]])执行rdd,并将结果写入文件系统

Rdd.iterator进行rdd计算,ShuffleDependency定义Aggregator是够做Map端的聚合,FileShuffleBlockManager.forMapTask()写入结果

写入完成后会将元数据信息写入MapStatus,会被保存在MapOutputTrackerMaster中

writers.numPartitions返回下游Partition数量(Task数量),每个Partition对应一个文件,文件名称shuffle_+shuffleId+_mapId+_reduceId

return

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值