Spark的宽窄依赖

宽窄依赖

宽窄依赖描述的是父RDD和子RDD之间的对应关系


依赖关系

在这里插入图片描述
RDD会不断进行转换处理,得到新的RDD

每个RDD之间就产生了依赖关系


窄依赖

定义:父RDD的一个分区的数据给子RDD的一个分区(不需要调用Shuffle的分区器)

一个Stage内部的计算都是窄依赖的过程,全部在内存中完成

特点

  • 一对一 或者 多对一
  • 不经过Shuffle,性能相对较快
  • 无法实现全局分区、排序和分组等

示例

在这里插入图片描述


宽依赖

定义:父RDD的一个分区数据给子RDD的多个分区(需要调用Shuffle的分区器来实现)

Spark的job中按照宽依赖划分Stage

特点

  • 一对多
  • 必须经过Shuffle,性能相对较慢
  • 可以实现全局分区、排序和分组

示例

在这里插入图片描述


【了解】为什么要设计宽窄依赖

提高数据容错的性能,避免分区数据丢失时,需要重新构建整个RDD

  • 场景:如果子RDD的某个分区的数据丢失
    • 无标记:不清楚父RDD与子RDD数据之间的关系,必须重新构建整个父RDD所有数据
    • 有标记:父RDD一个分区只对应子RDD的一个分区,按照对应关系恢复父RDD的对应分区即可

提高数据转换的性能,将连续窄依赖操作使用同一个Task都放在内存中直接转换

  • 场景:如果RDD需要多个map、flatMap、filter、reduceByKey、sortByKey等算子的转换操作
    • 无标记:每个转换不知道会不会经过Shuffle,都使用不同的Task来完成,每个Task的结果要保存到磁盘
    • 有标记:多个连续窄依赖算子放在一个Stage中,共用一套Task在内存中完成所有转换,性能更快
Spark RDD(弹性分布式数据集)的依赖机制是Spark实现容错性和高效计算的核心机制之一。 在Spark中,每个RDD都表示一个可分区、只读的数据集。RDD之间的依赖关系描述了RDD之间的转换操作,并指示了RDD如何通过转换操作从父RDD生成新的子RDD。 RDD的依赖关系可以分为两种类型:依赖(Narrow Dependency)和宽依赖(Wide Dependency)。 1. 依赖:当一个父RDD的每个分区只被一个子RDD的一个分区所使用时,我们称之为依赖。在这种情况下,Spark可以高效地进行转换操作,而无需重新计算所有的数据。例如,map、filter等转换操作都属于依赖依赖允许Spark在计算中进行更多的优化,如任务划分、数据本地性等。 2. 宽依赖:当一个父RDD的分区被多个子RDD的分区所使用时,我们称之为宽依赖。在这种情况下,Spark需要通过将数据进行洗牌(Shuffle)操作来重新组织数据,以满足子RDD的需求。例如,groupByKey、reduceByKey等转换操作都属于宽依赖。洗牌操作需要涉及数据的网络传输和排序,因此会引入额外的开销。 Spark使用DAG(有向无环图)来表示RDD之间的依赖关系。每个RDD都包含其对应的转换操作和所依赖的父RDD。当执行一个Action操作时,Spark会根据RDD之间的依赖关系动态构建执行计划,并将其转化为一系列的任务来执行。 通过依赖机制,Spark可以实现容错性,即当某个分区的数据丢失或计算失败时,可以通过依赖关系重新计算该分区的数据。同时,Spark还可以根据依赖关系进行任务划分和数据本地化等优化,以提高计算效率和性能。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值