spark中aggregateByKey的用法及示例

aggregateByKey算子的作用就是将元素类型为k,v类型的rdd根据k分组将v合并到某个数据结构中,下面我就通过示例介绍该算子的用法。

示例详解
假设有这样一个需求,将一个k,v类型的rdd根据k进行分组,并将v聚合到一个List集合中

1.首先创建一个k,v类型的rdd

val arr = Array(("a","j"),("b","k"),("a","l"),("a","m"),("b","n"))
val rdd1: RDD[(String, String)] = sc.parallelize(arr)


2.创建一个ListBuffer,并指定泛型

val zeroValue = collection.mutable.ListBuffer[String]()


3.在rdd上调用aggregateByKey算子进行聚合

val aggregate: RDD[(String, ListBuffer[String])] = 
rdd.aggregateByKey(zeroValue)((L, str) => L += str, (L1, L2) => L1 ++= L2)


参数及其意义:
zeroValue: 作为聚合的初始值,必须是可变的数据结构,因为要将v聚合到List中,所以是ListBuffer类型
(L,str) => L += str: 把str合并到List集合L中,该函数用于分区内聚合
(L1, L2) => L1 ++= L2: 合并两个分区的数据结构,该函数用于分区间聚合

4.将聚合后的ListBuffer转为List

val result: RDD[(String, List[String])] = aggregate.mapValues(list => list.toList)


5.聚合结果

(a,List(j, l, m))
(b,List(k, n))


————————————————
版权声明:本文为CSDN博主「心只婵娟」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_43149083/article/details/89457408

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值