Spark中的宽依赖和窄依赖

Spark中RDD的高效与DAG(有向无环图)图有着莫大的关系, 
在DAG调度中需要对计算过程划分Stage, 
而划分的依据就是就是RDD之间的依赖关系。 
针对不同的转换函数,RDD之间的依赖关系分为窄依赖(narrow dependency) 
和宽依赖(Wide Depencency,也称为Shuffle Depencency)。

窄依赖: 
指父RDD的每个分区只被子RDD的一个分区所使用,子RDD分区通常对应常数个父RDD分区,即一个父rdd的数据到一个子rdd或多个父rdd的数据到一个子rdd(一对一或多对一) 

宽依赖: 
是指父RDD的每个分区都可能被多个子RDD分区所使用,子RDD分区通常对应所有的父RDD分区,即一个父rdd的数据到多个子rdd(一对多) 


相比于依赖,窄依赖对优化很有利,主要基于以下两点:

1.依赖往往对应着Shuffle操作,需要在运行过程中将同一个父RDD的分区传入到不同的子RDD分区中,中间可能涉及多个节点之间的数据传输;而窄依赖的每个父RDD的分区只会传入到一个子RDD分区中,通常可以在一个节点内完成转换。
2.当RDD分区丢失时(某个节点故障),Spark会对数据进行重算
3.对于窄依赖,由于父RDD的一个分区只对应一个子RDD分区,这样只需要重算和子RDD分区对应的父RDD分区即可,所以这个重算对数据的利用率是100%的
4.对于依赖,重算的父RDD分区对应多个子RDD分区的,这样实际上父RDD中只有一部分的数据是被用于恢复这个丢失的子RDD分区的,另一部分对应子RDD的其他未丢失分区,这就造成了多余的计算;更一般的,宽依赖中子RDD分区通常来自多个父RDD分区,极端情况下,所有的父RDD分区都要进行重新计算。


区分这两种依赖很有用,首先,窄依赖允许在一个集群节点上以流水线的方式计算所有父分区, 
而宽依赖则需要首先计算好所有父分区数据,然后在节点之间进行Shuffle,这与MapReduce类似。 
第二窄依赖能够更有效地进行失效节点的恢复,即只需要重新计算丢失分区的父分区,而且不同节点之间可以并行计算;而对于一个宽依赖的Lineage图,单个节点失效可能导致这个RDD的所有祖先丢失部分分区,因而需要整体重新计算。

补充:

1.spark pipline的计算模式图

 

2.spark基于内存计算比mapreduce基于磁盘计算快的原因是:

比如都是从hdfs读取1G数据,spark一次只读取一条,将这一条数据一直进行计算(一条道走到黑),直到shuffle之前,将数据落到磁盘,这中间计算都是在内存中通过pipline,速度很快,一条数据计算完成之后,接着在进行第二条数据,依次类推,直到把1G数据都计算完保存在磁盘中,之后再读磁盘数据进行reduceBykey的操作;

而mapreduce的操作流程是一次性的将1G数据加载到内存中进行计算,每个流程计算完之后持久化到磁盘,下个流程开始时再从磁盘读数据再进行处理,等于每一步都要跟磁盘打交道,远比都在内存中处理的慢。
 

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值