Spark的Stage划分

0x01 宽依赖和窄依赖

窄依赖:

父RDD的每个分区最多被子RDD的一个分区所用(一个父RDD分区对应一个子RDD分区),即父RDD的数据没有被重新规划分区(没有被重新洗牌)

宽依赖:

父RDD的每一个分区被子RDD的所有分区所用(一个父RDD分区的数据被分发到子RDD的所有分区),即父RDD的数据被重新规划分区(被重新洗牌)

两种RDD依赖的关系图如下所示:
窄依赖(左)和宽依赖(右).png

0x02 Stage

RDD在执行action操作时,会触发Job的提交,Spark会根据RDD的DAG图,将Job划分成多个阶段,每个阶段称为一个Stage。
Stage分为两种:Shuffle Map StageResult Stage

Shuffle Map Stage:case its tasks’ results are input for other stage(s)——Shuffle Map Stage阶段的task结果被输入到其他Stage
Result Stage:Result Stage阶段的task结果直接是job的结果,也就是说包含最后一个RDD的Stage就是Result Stage。

Shuffle Map Stage中的Task称为ShuffleMapTask,Result Stage中的Task称为ResultTask

0x03 Stage的划分

Spark的Job会根据RDD的依赖关系来划分Stage,划分Stage的整体逻辑是:

从最后一个RDD往前推,遇到窄依赖的父RDD时,就将这个父RDD加入子RDD所在的stage;遇到宽依赖的父RDD时就断开,父RDD被划分为新的stage。

遇到宽依赖划分Stage.png

为什么遇到宽依赖需要切分Stage?

原因是:保证同一个Stage中的所有Task可以并行执行。

对于窄依赖,父子RDD的partition依赖关系是一对一,所以将子RDD的partition和其依赖的父RDD的partition放在同一个线程里处理,不同的线程可以并行的执行不同partition的转换处理。
而对于宽依赖,因为子RDD的每个partition都依赖父RDD的所有partition,所以子RDD的partition转换处理需要等父RDD的所有partition处理完成才能开始。所以宽依赖的父RDD不能和子RDD放在同一个Stage中。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值