使用Broadcast变量与map类算子实现join操作,进而完全规避掉shuffle类的操作

概述

有的时候,我们可能会遇到大数据计算中一个最棘手的问题——数据倾斜,此时Spark作业的性能会比期望差很多。数据倾斜调优,就是使用各种技术方案解决不同类型的数据倾斜问题,以保证Spark作业的性能。该篇博客参考美团的spark高级版,使用scala代码进行简单的模拟。

方案适用场景

在对RDD使用join类操作,或者是在Spark SQL中使用join语句时,而且join操作中的一个RDD或表的数据量比较小(比如几百M或者一两G),比较适用此方案。

方案实现思路

不使用join算子进行连接操作,而使用Broadcast变量与map类算子实现join操作,进而完全规避掉shuffle类的操作,彻底避免数据倾斜的发生和出现。将较小RDD中的数据直接通过collect算子拉取到Driver端的内存中来,然后对其创建一个Broadcast变量;接着对另外一个RDD执行map类算子,在算子函数内,从Broadcast变量中获取较小RDD的全量数据,与当前RDD的每一条数据按照连接key进行比对,如果连接key相同的话,那么就将两个RDD的数据用你需要的方式连接起来。

方案实现原理

普通的join是会走shuffle过程的,而一旦shuffle,就相当于会将相同key的数据拉取到一个shuffle read task中再进行join,此时就是reduce join。但是如果一个RDD是比较小的,则可以采用广播小RDD全量数据+map算子来实现与join同样的效果,也就是map join,此时就不会发生shuffle操作,也就不会发生数据倾斜。具体原理如下图所示。

方案优点

对join操作导致的数据倾斜,效果非常好,因为根本就不会发生shuffle,也就根本不会发生数据倾斜。

方案缺点

适用场景较少,因为这个方案只适用于一个大表和一个小表的情况。毕竟我们需要将小表进行广播,此时会比较消耗内存资源,driver和每个Executor内存中都会驻留一份小RDD的全量数据。如果我们广播出去的RDD数据比较大,比如10G以上,那么就可能发生内存溢出了。因此并不适合两个都是大表的情况。

如果对于hive中的map join熟悉的同学看这幅图应该很好理解,所以建议大家看看hive中的map join原理,进行对比学习。

这里写图片描述

代码部分
import org.apache.spark.{SparkConf, SparkContext}

object BroadCast {

  def main(args: Array[String]): Unit = {
    val conf=new SparkConf().setAppName("BroadCast").setMaster("local[2]")
    val sc=new SparkContext(conf)

    val smallRDD=sc.parallelize(Array(
      ("1","zhangsan"),
      ("2","lisi"),
      ("3","wangwu")
    )).collectAsMap()

    val smallBroadCast=sc.broadcast(smallRDD)

    val bigRDD=sc.parallelize(Array(
      ("1","school1","male"),
      ("2","school2","female"),
      ("3","school3","male"),
      ("4","school4","male"),
      ("5","school5","female")
    )).map(x=>(x._1,x))

    val broadCastValue=smallBroadCast.value

     bigRDD.mapPartitions(partitions=>{

       for ((key,value)<-partitions
         if (broadCastValue.contains(key)))
         yield(key,broadCastValue.getOrElse(key,""),value._2,value._3)

     }).collect().foreach(println)

    /** 结果
      * (1,zhangsan,school1,male)
      * (2,lisi,school2,female)
      * (3,wangwu,school3,male)
      */

  }
}
  • 6
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark SQL底层join实现有三种方式:broadcast hash joinshuffle hash join和sort merge join。其中broadcast hash join适用于小数据量的join操作,可以将一个小的表复制到所有的Executor上,然后和其他的表进行join操作shuffle hash join适用于大数据量的join操作,可以通过Hash函数将数据分区,然后通过网络进行数据交换,再将分区的数据进行join操作;sort merge join适用于两个表都有序的情况下进行join操作,可以将两个表按照join字段进行排序,然后按顺序进行join操作。 ### 回答2: Spark SQL是Apache Spark的一个组件,提供了一个基于SQL的编程接口,支持分布式数据处理。其底层实现了三种Join操作,分别是Broadcast Hash JoinShuffle Hash Join和Sort Merge Join。 1.Broadcast Hash Join是在一个表比较小的情况下使用Join算法。具体流程是,将小表广播给集群中的每个Executor,然后对大表进行Join操作。该算法需要把小表数据拷贝到内存中,可能会导致OOM异常,因此需要在实际使用中谨慎选择。 2.Shuffle Hash Join适用于两个表都比较大的情况下。具体流程是,在两个表都进行Shuffle操作,将Join Key相同的数据放到同一个分区。然后将每个分区的数据交给一个Executor进行Join操作。该算法的缺点是Shuffle会增加网络开销以及I/O操作的负担,因此需要注意调整参数大小。 3.Sort Merge Join适用于两个表都比较大且Join Key有序的情况下。该算法的流程是,在两个表进行Sort操作,将Join Key相同的数据放到同一个分区。然后将每个分区的数据交给一个Executor进行Join操作。该算法的优点是Join Key有序,不需要进行Shuffle操作,因此可以避免Shuffle操作的网络损耗和I/O操作的负担。 综上所述,Spark SQL底层Join实现使用了三种Join算法,Broadcast Hash Join适用于小表JoinShuffle Hash Join适用于两个表都比较大的情况下,Sort Merge Join适用于两个表都比较大且Join Key有序的情况下。我们在使用时需要根据实际情况选择合适的Join算法,避免OOM和网络开销等问题。 ### 回答3: Spark SQL是一种针对结构化和半结构化数据处理的高性能分布式计算框架。在使用Spark SQL进行数据处理时,很多情况下需要对数据进行join操作。Spark SQL的join操作有三种实现方式,分别是Broadcast Hash JoinShuffle Hash Join和Sort Merge JoinBroadcast Hash Join是一种在内存中进行的join操作,当一个表的大小可以运用内存进行分布并广播到所有节点时,可以采用Broadcast Hash Join。这种join实现方式是先在driver端对较小的表进行哈希操作,然后将其哈希表广播到所有worker节点上,同时另外一个较大的表再进行哈希操作,将其切分成多个小表,然后将每个小表发到worker上去跟广播的哈希表进行join,最终将所有小表的join结果汇总即可。Broadcast Hash Join的优点是可以减少数据的运输,缩短查询时间。缺点是只能适用于对于较小表以及对于等值join场景,而且如果数据量过大,广播查询也会耗费大量的网络资源,无法解决内存不足的问题。 Shuffle Hash Join是一种使用网络进行数据传输的join操作方式。当一个表的大小无法运用内存进行分布并广播到所有节点时,可以采用Shuffle Hash Join。它的实现方式是将两张表的数据都进行哈希分区,将相同哈希值的分区数据放到同一个节点上,然后在每个节点进行join操作。不同节点之间进行数据交换,需要通过Shuffle进行数据传送。Shuffle Hash Join适用于较大的表,可以支持任何join,但效率较低,因为需要网络传输。 Sort Merge Join是一种对两个表进行排序后再进行join操作的方式。Sort Merge Join实现方式是对两张表按照join key 进行排序,然后进行合并操作。当然这个过程支持Inner、Full、Left、Right的多种Join操作。Sort Merge Join的优点是适用于超大表的join操作,缺点是需要对两张表进行排序操作,代价较高,且仅适用于等值join,而且排序操作必须保证内存能够承受。 在Spark SQL的JOIN操作中,Broadcast Hash Join适用于大表关联小表的情况;Shuffle Hash Join是对大表关联大表,或者把数据分散在集群节点上的表进行JOIN操作的时候的方法;Sort Merge Join通常用于数据量较大而无法全部载入内存的情况下进行JOIN操作。不同的JOIN操作应根据数据量以及具体的情况来选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值