Spark Join操作 图文例子说明

Inner join

inner join,只返回左右都匹配上的

// 启动spark-shell,定义两个rdd,做join操作
[hadoop@hadoop01 ~]$ spark-shell --master local[2]
scala> val a = sc.parallelize(Array(("A","a1"),("B","b1"),("C","c1"),("D","d1"),("E","e1"),("F","f1")))
a: org.apache.spark.rdd.RDD[(String, String)] = ParallelCollectionRDD[0] at parallelize at <console>:24
 
scala> val b = sc.parallelize(Array(("A","a2"),("B","b2"),("C","c1"),("C","c2"),("C","c3"),("E","e2")))
b: org.apache.spark.rdd.RDD[(String, String)] = ParallelCollectionRDD[1] at parallelize at <console>:24
 
scala> a.join(b).collect    // 这里的join是inner join,只返回左右都匹配上的内容
 
res1: Array[(String, (String, String))] = Array((B,(b1,b2)), (A,(a1,a2)), (C,(c1,c1)), (C,(c1,c2)), (C,(c1,c3)), (E,(e1,e2)))
 
scala> b.join(a).collect    
res2: Array[(String, (String, String))] = Array((B,(b2,b1)), (A,(a2,a1)), (C,(c1,c1)), (C,(c2,c1)), (C,(c3,c1)), (E,(e2,e1)))
 
scala>

在这里插入图片描述

left outer join

left:是以左边为基准,向左靠

scala> a.leftOuterJoin(b).collect
res3: Array[(String, (String, Option[String]))] = Array((B,(b1,Some(b2))), (F,(f1,None)), (D,(d1,None)), (A,(a1,Some(a2))), (C,(c1,Some(c1))), (C,(c1,Some(c2))), (C,(c1,Some(c3))), (E,(e1,Some(e2))))
 
scala> b.leftOuterJoin(a).collect
res5: Array[(String, (String, Option[String]))] = Array((B,(b2,Some(b1))), (A,(a2,Some(a1))), (C,(c1,Some(c1))), (C,(c2,Some(c1))), (C,(c3,Some(c1))), (E,(e2,Some(e1))))
 
scala> 

左边(a)的记录一定会存在,右边(b)的记录有的返回Some(x),没有的补None。
在这里插入图片描述

right outer join

right:是以右边为基准,向右靠

scala> a.rightOuterJoin(b).collect
res4: Array[(String, (Option[String], String))] = Array((B,(Some(b1),b2)), (A,(Some(a1),a2)), (C,(Some(c1),c1)), (C,(Some(c1),c2)), (C,(Some(c1),c3)), (E,(Some(e1),e2)))
 
scala> b.rightOuterJoin(a).collect
res6: Array[(String, (Option[String], String))] = Array((B,(Some(b2),b1)), (F,(None,f1)), (D,(None,d1)), (A,(Some(a2),a1)), (C,(Some(c1),c1)), (C,(Some(c2),c1)), (C,(Some(c3),c1)), (E,(Some(e2),e1)))
 
scala> 

右边(b)的记录一定会存在,左边(a)的记录有的返回Some(x),没有的补None。
在这里插入图片描述

full outer join

scala> val a = sc.parallelize(Array(("A","a1"),("B","b1"),("C","c1"),("D","d1"),("E","e1"),("F","f1")))
a: org.apache.spark.rdd.RDD[(String, String)] = ParallelCollectionRDD[49] at parallelize at <console>:24
 
scala> val b = sc.parallelize(Array(("A","a2"),("B","b2"),("C","c1"),("C","c2"),("C","c3"),("E","e2")))
b: org.apache.spark.rdd.RDD[(String, String)] = ParallelCollectionRDD[50] at parallelize at <console>:24
 
scala> a.fullOuterJoin(b).collect
res15: Array[(String, (Option[String], Option[String]))] = Array((B,(Some(b1),Some(b2))), (F,(Some(f1),None)), (D,(Some(d1),None)), (A,(Some(a1),Some(a2))), (C,(Some(c1),Some(c1))), (C,(Some(c1),Some(c2))), (C,(Some(c1),Some(c3))), (E,(Some(e1),Some(e2))))
 
scala> b.fullOuterJoin(a).collect
res16: Array[(String, (Option[String], Option[String]))] = Array((B,(Some(b2),Some(b1))), (F,(None,Some(f1))), (D,(None,Some(d1))), (A,(Some(a2),Some(a1))), (C,(Some(c1),Some(c1))), (C,(Some(c2),Some(c1))), (C,(Some(c3),Some(c1))), (E,(Some(e2),Some(e1))))
 
scala>

在这里插入图片描述

注意:使用JOIN之前,要知道JOIN之后的数据结构是什么。

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark提供了多种Join执行策略来实现Join操作。其中包括Shuffle Hash Join、Broadcast Hash Join、Sort Merge Join、Cartesian Join和Broadcast Nested Loop Join。\[1\]\[2\] 在Spark中,执行Join操作时,会根据一定的规则选择合适的Join执行策略。如果没有指定Join提示(join hints),则会按照以下规则进行选择: 1. 如果Join类型可使用Broadcast Hash Join,并且其中一张表的大小小于spark.sql.autoBroadcastJoinThreshold的值(默认为10MB),则会选择Broadcast Hash Join。 2. 如果spark.sql.join.preferSortMergeJoin的值为false,并且其中一张表的大小小到可以构建为Hash Map,则会选择Shuffle Hash Join。 3. 如果Join的列可以进行排序,则会选择Sort Merge Join。 4. 如果是内连接,则会选择Cartesian Join。 5. 如果可能发生OOM(内存溢出)或者没有其他可选择的执行策略,则会选择Broadcast Nested Loop Join。 这些策略的选择是根据表的大小、是否可广播、是否可排序以及是否发生OOM等因素来决定的。\[3\] #### 引用[.reference_title] - *1* *2* *3* [SparkJoin实现原理](https://blog.csdn.net/jinjiating/article/details/127973403)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值