Spark------------宽窄依赖

窄依赖

窄依赖(NarrowDependency)

官方解释:“Base class for dependncies where each partition of the child RDD depends on a small number of partitions of the parent RDD. Narrow dependencies allow for pipelined execution.”

中文意思:“如果新生成的 child RDD 中的每个分区都依赖parent RDD 中的一部分分区,那么这个分区依赖关系被称为 NarrowDependency”

宽依赖

宽依赖(ShuffleDependency)

官方解释:“Represents a dependency on the output of a shuffle stage.”

这是从实现角度来讲的,如果从数据流角度解释,宽依赖表示新生成的 child RDD 中的分区依赖 parent RDD 中的每个分区的一部分

大家注意我加粗的部分,用一张图来解释:

在这里插入图片描述
图1,2,3 都为窄依赖,图4为宽依赖,图中很明显的展示了“一部分分区”和“分区的一部分”的意思。

大家会好奇一点,这有什么作用呢?

①它明确定义了各 RDD 之间的数据依赖关系。

②对数据依赖进行分类有利于生成物理执行计划,stage的划分就依赖于此,后续我们会分析。

有向无环图

有向无环图(Directed acyclic graph, DAG)

在有相互依赖的调度系统中,DAG 有着非常典型的应用。这里以Spark 为例进行说明。

在Spark中的每一个操作生成一个RDD,RDD之间形成一条边,最后这些RDD和他们之间的边组成一个有向无环图,这个就是DAG。

在这里插入图片描述
原始的RDD通过一系列的转换就形成了DAG,有了可计算的DAG,Spark内核下一步的任务就是根据DAG图将计算划分成任务集,也就是Stage,这样可以将任务提交到计算节点进行真正的计算。

Spark计算的中间结果默认是保存在内存中的,Spark在划分Stage的时候会充分考虑在分布式计算中可流水线计算的部分来提高计算的效率,而在这个过程中Spark根据RDD之间依赖关系的不同将DAG划分成不同的Stage。

对于窄依赖,partition的转换处理在一个Stage中完成计算。对于宽依赖,由于有Shuffle的存在,只能在parent RDD处理完成后,才能开始接下来的计算,因此宽依赖是划分Stage的依据。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

南望南山

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值