spark的join和leftJoin使用union和reduce实现

在spark中使用自带的join与leftJoin容易引发性能问题,所以可以改写为union后reduce来提升性能。

 

import scala.reflect.ClassTag
def leftJoin[K:ClassTag,V:ClassTag](left:RDD[(K, V)],right:RDD[(K, V)])={
        left.mapValues(x=>Array((x,0))).union(right.mapValues(x=>Array((x,1))))
        .reduceByKey(_++_)
        .flatMapValues{x=>
            val l=x.filter(_._2==0)
            val r=x.filter(_._2==1)
            if(l.isEmpty){
                List()
            }else if(r.isEmpty){
                l.map{t=>(t._1,None)}.toList
            }else{
                l.map{t=>(t._1,Some(r.head._1))}.toList
            }
        }
    }

    def join[K:ClassTag,V:ClassTag](left:RDD[(K,V)],right:RDD[(K,V)])={
        left.mapValues(x=>Array((x,0))).union(right.mapValues(x=>Array((x,1))))
        .reduceByKey(_++_)
        .flatMapValues{x=>
            val l=x.filter(_._2==0)
            val r=x.filter(_._2==1)
            if(l.isEmpty || r.isEmpty){
                List()
            }else{
                l.map{t=>(t._1,r.head._1)}.toList
            }
        }
    }

    def outerJoin[K: ClassTag, V: ClassTag](left: RDD[(K, V)], right: RDD[(K, V)]) = {
        left.mapValues(x => Array((x, 0))).union(right.mapValues(x => Array((x, 1))))
        .reduceByKey(_ ++ _)
        .mapValues { x =>
            val l = x.filter(_._2 == 0) 
            val r = x.filter(_._2 == 1) 
            if (l.isEmpty && !r.isEmpty) {
                (None, Some(r.head._1))
            } else if (r.isEmpty && !l.isEmpty) { 
                (Some(l.head._1), None)
            } else {
                (Some(l.head._1), Some(r.head._1))
            }
        }.map { case (key, (v1, v2)) =>
            (key, v1, v2)
        }
    }

 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值