sparkSql两表join关联的五种方式实现及原理


对于Spark来说有3中Join的实现,每种Join对应着不同的应用场景:

  1. Broadcast Hash Join : 适合一张较小的表和一张大表进行join
  2. Shuffle Hash Join : 适合一张小表和一张大表进行join,或者是两张小表之间的join
  3. Sort Merge Join : 适合两张较大的表之间进行join
    前两者都基于的是Hash Join,只不过在hash join之前需要先shuffle还是先broadcast。下面将详细的解释一下这三种不同的join的具体原理。
Hash Join简介

先来看看这样一条SQL语句:

select * from order,item where item.id = order.i_id

这个Join采用的是hash join算法,整个过程会经历三步

  1. 确定Build Table以及Probe Table:这个概念比较重要,Build Table使用join key构建Hash Table,而Probe Table使用join key进行探测,探测成功就可以join在一起。通常情况下,小表会作为Build Table,大表作为Probe Table。此事例中item为Build Table,order为Probe Table;
  2. 构建Hash Table:依次读取Build Table(item)的数据,对于每一行数据根据join key(item.id)进行hash,hash到对应的Bucket,生成hash table中的一条记录。数据缓存在内存中,如果内存放不下需要dump到外存;
  3. 探测:再依次扫描Probe Table(order)的数据,使用相同的hash函数映射Hash Table中的记录,映射成功之后再检查join条件(item.id = order.i_id),如果匹配成功就可以将两者join在一起。
    在这里插入图片描述
    基本流程可以参考上图,这里有两个小问题需要关注:

1.hash join性能如何?很显然,hash join基本都只扫描两表一次,可以认为o(a+b),较之最极端的笛卡尔集运算a*b,不知甩了多少条街;
2.为什么Build Table选择小表?道理很简单,因为构建的Hash Table最好能全部加载在内存,效率最高;这也决定了hash join算法只适合至少一个小表的join场景,对于两个大表的join场景并不适用。

上文说过,hash join是传统数据库中的单机join算法,在分布式环境下需要经过一定的分布式改造,说到底就是尽可能利用分布式计算资源进行并行化计算,提高总体效率。hash join分布式改造一般有两种经典方案:

  1. broadcast hash join:将其中一张小表广播分发到另一张大表所在的分区节点上,分别并发地与其上的分区记录进行hash join。broadcast适用于小表很小,可以直接广播的场景;
  2. shuffler hash join:一旦小表数据量较大,此时就不再适合进行广播分发。这种情况下,可以根据join key相同必然分区相同的原理,将两张表分别按照join key进行重新组织分区,这样就可以将join分而治之,划分为很多小join,充分利用集群资源并行化。
一、Broadcast hash Join

大家知道,在数据库的常见模型中(比如星型模型或者雪花模型),表一般分为两种:事实表和维度表。维度表一般指固定的、变动较少的表,例如联系人、物品种类等,一般数据有限。而事实表一般记录流水,比如销售清单等,通常随着时间的增长不断膨胀。

因为Join操作是对两个表中key值相同的记录进行连接,在SparkSQL中,对两个表做Join最直接的方式是先根据key分区,再在每个分区中把key值相同的记录拿出来做连接操作。但这样就不可避免地涉及到shuffle,而shuffle在Spark中是比较耗时的操作,我们应该尽可能的设计Spark应用使其避免大量的shuffle。

当维度表和事实表进行Join操作时,为了避免shuffle,我们可以将大小有限的维度表的全部数据分发到每个节点上,供事实表使用。executor存储维度表的全部数据,一定程度上牺牲了空间,换取shuffle操作大量的耗时,这在SparkSQL中称作Broadcast Join,也称之为Map端JOIN,如下图所示:
在这里插入图片描述
Table B是较小的表,黑色表示将其广播到每个executor节点上,Table A的每个partition会通过block manager取到Table A的数据。根据每条记录的Join Key取到Table B中相对应的记录,根据Join Type进行操作。
Broadcast Join的条件有以下几个:

  1. 被广播的表需要小于spark.sql.autoBroadcastJoinThreshold所配置的值,默认是10M (或者加了broadcast join的hint)
  2. 基表不能被广播,比如left outer join时,只能广播右表
    缺点: 这个方案只能用于广播较小的表,否则数据的冗余传输就远大于shuffle的开销;另外,广播时需要将被广播的表现collect到driver端,当频繁有广播出现时,driver的内存压力也是蛮大的。

broadcast hash join可以分为两步:

  1. broadcast阶段:将小表广播分发到大表所在的所有主机。广播算法可以有很多,最简单的是先发给driver,driver再统一分发给所有executor;要不就是基于bittorrete的p2p思路;
  2. hash join阶段:在每个executor上执行单机版hash join,小表映射,大表试探;实现分布式join操作。

SparkSQL规定broadcast hash join执行的基本条件为被广播小表必须小于参数spark.sql.autoBroadcastJoinThreshold,默认为10M。

代码实现
//不限定小表的大小
spark.conf.set("spark.sql.autoBroadcastJoinThreshold", -1)
import org.apache.spark.sql.SparkSession

object BigRDDJoinSmallRDD {
  def main(args: Array[String]): Unit = {
    val sparkSession = SparkSession.builder().master("local[*]").appName("BigRDD Join SmallRDD").getOrCreate()
    val sc = sparkSession.sparkContext
    val list1 = List(("jame",23), ("wade",3), ("kobe",24))
    val list2 = List(("jame", 13), ("wade",6), ("kobe",16))
    val bigRDD = sc.makeRDD(list1)
    val smallRDD = sc.makeRDD(list2)

    println(bigRDD.getNumPartitions)
    println(smallRDD.getNumPartitions)

    // driver端rdd不broadcast广播smallRDD到各executor,RDD不能被broadcast,需要转换成数组array
    val  smallRDDB= sc.broadcast(smallRDD.collect())

    val joinedRDD = bigRDD.mapPartitions(partition => {
      val smallRDDBV = smallRDDB.value  // 各个executor端的task读取广播value
      partition.map(element => {
        //println(joinUtil(element, smallRDDBV))
        joinUtil(element, smallRDDBV)
      })
    })
    joinedRDD.foreach(x => println(x))
  }
  
/**
  * join操作:对两个rdd中的相同key的value1和value2进行聚合,即(key,value1).join(key,value2)得到(key,(value1, vlaue2))
  * 如果bigRDDEle的key和smallRDD的某个key一致,那么返回(key,(value1, vlaue2))
  * 该方法会在各executor的task上执行
  * */
 def joinUtil(bigRDDEle:(String,Int), smallRDD: Array[(String, Int)]): (String, (Int,Int)) = {
   var joinEle:(String, (Int, Int)) = null
   // 遍历数组smallRDD
   smallRDD.foreach(smallRDDEle => {
      if(smallRDDEle._1.equals(bigRDDEle._1)){
        // 如果bigRDD中某个元素的key和数组smallRDD的key一致,返回join结果
        joinEle = (bigRDDEle._1, (bigRDDEle._2, smallRDDEle._2))
      }
    })
   joinEle
 }
}

执行计划:
在这里插入图片描述

二、Shuffle Hash Join

当一侧的表比较小时,我们选择将其广播出去以避免shuffle,提高性能。但因为被广播的表首先被collect到driver段,然后被冗余分发到每个executor上,所以当表比较大时,采用broadcast join会对driver端和executor端造成较大的压力。
由于Spark是一个分布式的计算引擎,可以通过分区的形式将大批量的数据划分成n份较小的数据集进行并行计算。
这种思想应用到Join上便是Shuffle Hash Join了。利用key相同必然分区相同的这个原理,两个表中,key相同的行都会被shuffle到同一个分区中,SparkSQL将较大表的join分而治之,先将表划分成n个分区,再对两个表中相对应分区的数据分别进行Hash Join,这样即在一定程度上减少了driver广播一侧表的压力,也减少了executor端取整张被广播表的内存消耗,提升了计算时的稳定性。其原理如下图:
在这里插入图片描述
Shuffle Hash Join分为两步:

  1. 对两张表分别按照join keys进行重分区,将相同join key的记录重分布到同一节点,两张表的数据会被重分布到集群中所有节点,即shuffle,目的是为了让有相同join keys值的记录分到对应的分区中
  2. 对应分区中的数据进行join,此处先将小表分区构造为一张hash表,然后根据大表分区中记录的join keys值拿出来进行匹配

Shuffle Hash Join的条件有以下几个:

  1. 分区的平均大小不超过spark.sql.autoBroadcastJoinThreshold所配置的值,默认是10M
  2. 基表不能被广播,比如left outer join时,只能广播右表
  3. 一侧的表要明显小于另外一侧,小的一侧将被广播(明显小于的定义为3倍小,此处为经验值)
    在这里插入图片描述
    如果一张大表join一张极小表,可以选择broadcast hash join算法;而如果是一张大表join一张小表,则可以选择shuffle hash join算法;
三、Sort Merge Join

当两个表都非常大时,显然无论使用上述哪种都会对计算内存造成很大压力。这是因为join时两者采取的都是hash join,是将一侧的数据完全加载到内存中,使用hash code取join keys值相等的记录进行连接。

当两个表都非常大时,SparkSQL采用了一种全新的方案来对表进行Join,即Sort Merge Join。这种实现方式不用将一侧数据全部加载后再进星hash join,但需要在join前将数据排序,如下图所示:
在这里插入图片描述
可以看到,首先将两张表按照join keys进行了重新shuffle,保证join keys值相同的记录会被分在相应的分区。分区后对每个分区内的数据进行排序,排序后再对相应的分区内的记录进行连接。如下图
因为两个序列都是有序的,从头遍历,碰到key相同的就输出;如果不同,左边小就继续取左边,反之取右边。

可以看出,无论分区有多大,Sort Merge Join都不用把某一侧的数据全部加载到内存中,而是即用即取即丢,从而大大提升了大数据量下sql join的稳定性。

SparkSQL对两张大表join采用了全新的算法-sort-merge join,如下图所示,整个过程分为三个步骤:
在这里插入图片描述

  • shuffle阶段:将两张大表根据join key进行重新分区,两张表数据会分布到整个集群,以便分布式并行处理;
  • sort阶段:对单个分区节点的两表数据,分别进行排序;
  • merge阶段:对排好序的两张分区表数据执行join操作。join操作很简单,分别遍历两个有序序列,碰到相同join key就merge输出,否则取更小一边,见下图示意:
    在这里插入图片描述
代码实现
// 每个分区的平均大小不超过spark.sql.autoBroadcastJoinThreshold设定的值
spark.conf.set("spark.sql.join.preferSortMergeJoin", true)

执行计划:
在这里插入图片描述

四、Cartesian Join

Cartesian Join机制专门用来实现cross join,结果的分区数等于输入数据集的分区数之积,结果中每一个分区的数据对应一个输入数据集的一个分区和另外一个输入数据集的一个分区。
如果 Spark 中两张参与 Join 的表没指定join key(ON 条件)那么会产生 Cartesian product join,这个 Join 得到的结果其实就是两张行数的乘积。
条件:

  • 仅支持内连接
  • 支持等值和不等值连接
  • 开启参数spark.sql.crossJoin.enabled=true
五、Broadcast Nested Loop Join

Broadcast Nested Join将一个输入数据集广播到每个executor上,然后在各个executor上,另一个数据集的分区会和第一个数据集使用嵌套循环的方式进行Join输出结果。

Broadcast Nested Join需要广播数据集和嵌套循环,计算效率极低,对内存的需求也极大,因为不论数据集大小,都会有一个数据集被广播到所有executor上。
该方式是在没有合适的JOIN机制可供选择时,最终会选择该种join策略。优先级为:Broadcast Hash Join > Sort Merge Join > Shuffle Hash Join > cartesian Join > Broadcast Nested Loop Join.
在Cartesian 与Broadcast Nested Loop Join之间,如果是内连接,或者非等值连接,则优先选择Broadcast Nested Loop策略,当时非等值连接并且一张表可以被广播时,会选择Cartesian Join。
条件与特点:

  • 支持等值和非等值连接
  • 支持所有的JOIN类型,主要优化点如下:
  • 当右外连接时要广播左表
  • 当左外连接时要广播右表
  • 当内连接时,要广播左右两张表

Spark根据以下的因素选择实际执行Join的机制:
参数配置
hint参数
输入数据集大小
Join类型
Join条件
其中,hint参数是一种在join时手动指定join机制的方法,例如:
df1.hint("broadcast").join(df2, ...)

六、官网Examples

Join hints allow users to suggest the join strategy that Spark should use. Prior to Spark 3.0, only the BROADCAST Join Hint was supported. MERGE, SHUFFLE_HASH and SHUFFLE_REPLICATE_NL Joint Hints support was added in 3.0. When different join strategy hints are specified on both sides of a join, Spark prioritizes hints in the following order: BROADCAST over MERGE over SHUFFLE_HASH over SHUFFLE_REPLICATE_NL. When both sides are specified with the BROADCAST hint or the SHUFFLE_HASH hint, Spark will pick the build side based on the join type and the sizes of the relations. Since a given strategy may not support all join types, Spark is not guaranteed to use the join strategy suggested by the hint.

-- Join Hints for broadcast join
SELECT /*+ BROADCAST(t1) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;
SELECT /*+ BROADCASTJOIN (t1) */ * FROM t1 left JOIN t2 ON t1.key = t2.key;
SELECT /*+ MAPJOIN(t2) */ * FROM t1 right JOIN t2 ON t1.key = t2.key;

-- Join Hints for shuffle sort merge join
SELECT /*+ SHUFFLE_MERGE(t1) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;
SELECT /*+ MERGEJOIN(t2) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;
SELECT /*+ MERGE(t1) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;

-- Join Hints for shuffle hash join
SELECT /*+ SHUFFLE_HASH(t1) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;

-- Join Hints for shuffle-and-replicate nested loop join
SELECT /*+ SHUFFLE_REPLICATE_NL(t1) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;

-- When different join strategy hints are specified on both sides of a join, Spark
-- prioritizes the BROADCAST hint over the MERGE hint over the SHUFFLE_HASH hint
-- over the SHUFFLE_REPLICATE_NL hint.
-- Spark will issue Warning in the following example
-- org.apache.spark.sql.catalyst.analysis.HintErrorLogger: Hint (strategy=merge)
-- is overridden by another hint and will not take effect.
SELECT /*+ BROADCAST(t1), MERGE(t1, t2) */ * FROM t1 INNER JOIN t2 ON t1.key = t2.key;
总结

经过上文的分析,可以明确每种Join算法都有自己的适用场景,数据仓库设计时最好避免大表与大表的join查询,SparkSQL也可以根据内存资源、带宽资源适量将参数spark.sql.autoBroadcastJoinThreshold调大,让更多join实际执行为broadcast hash join。

  • 9
    点赞
  • 44
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
### 回答1: SparkSQL两表join关联五种方式实现原理: 1. Shuffle Hash Join:将两个join key进行hash分区,然后将相同hash值的数据分配到同一个节点上进行join操作,最后将结果进行合并。这种方式适用于数据量较小的情况。 2. Broadcast Hash Join:将小的数据广播到所有节点上,然后将大的数据进行hash分区,将相同hash值的数据分配到同一个节点上进行join操作,最后将结果进行合并。这种方式适用于小和大join的情况。 3. Sort Merge Join:将两个的数据进行排序,然后按照join key进行合并。这种方式适用于数据量较大的情况。 4. Broadcast Nested Loop Join:将小的数据广播到所有节点上,然后将大的数据进行遍历,对于每一条数据都与小进行join操作。这种方式适用于小和大join的情况。 5. Shuffle Sort Merge Join:将两个的数据进行hash分区,然后将相同hash值的数据分配到同一个节点上进行排序,最后按照join key进行合并。这种方式适用于数据量较大且需要排序的情况。 ### 回答2: SparkSQLSpark的一个模块,它提供了对结构化和半结构化数据的高效分布式处理能力。在SparkSQL中,join是最重要的关联操作之一,SparkSQL提供了五种不同的关联方式,分别是:Nested Loop JoinBroadcast Join、Sort Merge Join、Shuffle Hash Join和Shuffle Sort Merge Join,下面将分别介绍这五种join操作的实现及其原理。 1. Nested Loop Join Nested Loop Join是最基本的join方式,它通过嵌套循环遍历两个中的所有记录,适用于小数据集和相对不复杂的查询。但是,因为其时间复杂度为O(n^2),在大数据集下效率很低。 2. Broadcast Join Broadcast Join适用于一个很小,可以全部放入内存中。采用广播变量的方式将小的数据复制到所有的Executor节点,然后通过map端的connect,将小和大进行join操作。由于广播变量的数据存储在Executor的内存中,所以能够消除shuffle过程带来的网络消耗。看似是一种很好的join方式,但是如果小过大(超过内存容量),广播变量将会成为瓶颈,所以使用时需要谨慎。 3. Sort Merge Join Sort Merge Join首先要把两个参与join按照连接字段排序,并通过shuffle操作将数据分配到不同的Executor上。然后再在各自的Executor节点上进行join操作。这种join操作适合大join,它的局限性为需要进行shuffle操作,这可能是SparkSQL处理代价最大的操作,会给整个应用带来大量的数据复制和传输负载。 4. Shuffle Hash Join Shuffle Hash Join是通过将大中的数据切分成若干个Partition,并将小中的数据通过Hash算法分到不同的Partition中,将所有分到同一个Partition的数据进行join操作。其优点在于避免了Sort Merge Join的排序操作,但代价是需要大量计算Hash函数,可能会占用开销较大的计算资源,并且有些Partition中数据可能会对单个Executor节点消耗过大的内存。 5. Shuffle Sort Merge Join Shuffle Sort Merge Join是Sort Merge Join和Shuffle Hash Join的综合体,它对数据进行切分,再按照连接键进行排序,并且使用Hash算法将小数据分配到对应的Partition。然后再在每个Partition上使用Sort Merge Join算法进行join操作。该算法既兼顾Sort Merge Join的高效性,又兼顾Shuffle Hash Join的低内存占用,但在处理大时的性能也会受到shuffle操作的影响。 总之,以上五种join方式都各有利弊,选择哪种方式取决于数据量、内存容量、计算资源及SparkSQL应用的实际情况。 ### 回答3: Spark SQLSpark中处理结构化数据的主要库,可以实现SQL一样的查询和操作。其中,join操作是最常见的操作之一。Spark SQL支持五种不同的join操作来关联两个:inner join、left outer join、right outer join、full outer join和cross join。本文将为大家介绍这五种操作的实现原理。 1. Inner Join(内连接) 内连接是最简单的连接方式。它指的是将两个中共有的数据合并起来,并且只返回匹配的行。在Spark SQL中,可以使用join或者joinWith函数完成inner join操作。join函数用于连接两个DataFrame或Dataset,joinWith函数用于更严格的连接。它将两个中的相同字段并排放置,然后执行自定义操作。实现连接操作的原理是使用了分布式并行计算,通过shuffle操作将两个数据集根据指定的字段进行分区,并运行在这些分区上进行join操作,最后将结果合并起来,得到新的数据集。 2. Left Outer Join(左外连接) 左外连接也叫左连接,指的是将左中所有行与右中符合条件的行组成的集合合并起来。如果右中没有匹配的行,则在输出结果中将显示null。在Spark SQL中,可以使用left_join函数完成left outer join操作。实现左外连接操作的原理与内连接相似,只不过在这种情况下,Spark会对左边的数据进行全局排序,在对右数据进行局部排序,以减少排序的成本。然后,Spark基于分布式计算原理对这两个数据集进行分区,根据指定字段进行join操作,并将结果合并起来得到新的数据集。 3. Right Outer Join(右外连接) 右外连接也叫右连接,是左外连接的倒置版,指的是将右中的所有行与左中符合条件的行组成的集合合并起来。如果左中没有匹配的行,则在输出结果中将显示null。在Spark SQL中,可以使用right_join函数完成right outer join操作。实现右外连接操作的实现原理和左外连接类似。 4. Full Outer Join(全外连接) 全外连接又称全连接,指的是将两个中所有的行都合并在一起,不管是否匹配。如果左或右中没有匹配的行,则在输出结果中会显示null。在Spark SQL中,可以使用crossJoin函数完成full outer join操作。实现全外连接操作的原理是将两个中的数据集进行分区,然后对每个分区上进行join操作,并将结果合并起来得到新的数据集。 5. Cross Join(交叉连接) 交叉连接是指将左中的每一行都与右中的每一行进行配对组合,不需要任何谓词或过滤条件。交叉连接的结果集中行数等于左行数与右行数的乘积。在Spark SQL中,可以使用crossJoin函数完成cross join操作。实现交叉连接操作的原理是将两个中的数据集进行笛卡尔积,并将结果集合并起来得到新的数据集。 综上所述,Spark SQL五种join操作的实现原理基本相同,也都是通过shuffle或者分区操作对两个数据集进行分片,然后在指定的字段上进行join操作,最后将结果合并起来得到新的数据集。不同之处在于它们的返回结果及操作的方式。在实际操作中,需要根据具体的业务需求,选择合适的join方式来完成相应的操作。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值