SparkCore中的combineByKey的使用

  在我们编写SparkCore代码时通常使用的聚合类算子有reduceByKey、aggregateByKey、foldByKey,但是这三个算子底层都调用了combineByKey算子,这里就介绍一下如何使用combineByKey

  1. 首先我们看一下使用这个算子要传入哪些参数,如下图所示
    在这里插入图片描述
    这里主要以红框中的作为使用
  2. 参数讲解
    通过上图我们可以看出使用这个算子我们最少要传入三个函数作为参数这里在代码中对三个参数进行讲解
// 创建一个值为Tuple2类型的数组
val arr = Array(("Tom",3),("Tom",4),("Jerry",1),("Jerry",9),("Ken",5))

// 将数组并行化
val rdd = sc.parallelize(arr)
   /**
     * 1. 第一个函数表示对第一个值的处理,这里为了体现效果我将第一个值添加到ArrayBuffer中.
     * 2. 第二个函数是局部聚合的处理函数,但是函数的第一个参数要同第一个函数中的值的数据类型形同,因为我将第一个函数添加到了ArrayBuffer中所以,
     *    第二个函数的第一个参数的数据类型就为ArrayBuffer,后面就是聚合逻辑.
     * 3. 第三个函数是全局聚合的处理函数,函数中的参数的数据类型要同第二个函数处理完成的值的数据类型形同,应为经过局部聚合的处理,
     *    所有的数值的数据类型已经是相同的.
     */
val array = rdd.combineByKey(
  x => ArrayBuffer(x),  // 函数一
  (a : ArrayBuffer[Int], b : Int) => a += b, // 函数二
  (m : ArrayBuffer[Int], n : ArrayBuffer[Int]) => m ++= n // 函数三
).collect

// 将结果数据打印出来
for (elem <- array) {
  println("Key:" + elem._1 + "  Value:" + elem._2)
}
  1. 结果数据如下图所示

在这里插入图片描述
这里就是combineByKey的使用.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值