Spark RDD算子(七) groupByKey、cogroup

本文详细介绍了Spark中的两个关键算子——groupByKey和cogroup。groupByKey用于将相同key的元素聚合,返回结果为RDD[key, Iterable[value]],类似于SQL的GROUP BY操作,但不建议在大规模数据中直接使用,因为可能会导致性能问题,推荐使用reduceByKey或combineByKey进行优化。cogroup则是对具有相同键的多个RDD进行分组,提供了一种同时处理多个RDD中相同键值的方法。" 114154618,10536023,Java利用高德API实现经纬度到地理位置转换,"['Java开发', '地图API', '地理编码']
摘要由CSDN通过智能技术生成

一、groupByKey

groupByKey会将RDD[key,value] 按照相同的key进行分组,形成RDD[key,Iterable[value]]的形式, 有点类似于sql中的groupby
groupByKey不能传算法,消耗性能,优化尽量使用reduceByKey或combineByKey

例:对学生的成绩进行分组

scala版本

val conf=new SparkConf().setMaster("local[2]").setAppName("groupby")
val sc=new SparkContext(conf)

val rdd=sc.makeRDD(List(("张三",97),("张三",87),
  ("李四",97),("李四",99),("小罗",100)))

val scoreGroupRdd = rdd.groupByKey()
//姓名,(分数,分数)的元组
scoreGroupRdd.collect.foreach(println)
//姓名,分数
scoreGroupRdd.collect.foreach(x=> {
   
  val name=x._1
  val scoreDetail=x._2
  scoreDetail.foreach(scoreDetail=>println(name,scoreDetail))
})

java版本

SparkConf conf=new SparkConf().setMaster("local[2]").setAppName("groupbyjava");
JavaSparkContext sc=new JavaSparkContext(conf);

//将JavaRDD<Tuple2<String,Float>> 类型转换为 JavaPairRDD<String, Float>
JavaPairRDD<String, Float> scoreMapRdd = JavaPairRDD.fromJavaRDD(scoreRdd);
JavaPairRDD<String, Iterable<Float>> scoreByKeyRdd = scoreMapRdd.groupByKey();
Map<
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值