今年以来一直在学习通过Spark Streaming 来处理公司大数据相关的业务需求。去重\汇总 在大数据统计中是很常见的。而reduceByKey、combineByKey 在 Spark Streaming 中做合并操作时(由对象V到对象C的转换)很重要的两个api . 网上的事例大部分太过简单,或者讲解过于皮毛。
先对比下二者的函数签名: class PairRDDFunctions[K, C](...) { def reduceByKey(func: (C, C) => C): RDD[(K, C)] def combineByKey[C]( createCombiner: V => C, mergeValue: (C, V) => C, mergeCombiners: (C, C) => C): RDD[(K, C)] }
总体来看, reduceByKey 比 combineByKey 更简单,combineByKey 比 reduceByKey 更通用,另外,在实际转换(从对象V到对象C)过程当中,对开发员来讲是非常讲究的。而我将就实际的需求事例,来做讲解:
现有 V 与 C 两个对象:
class Vobj(vId: String, vName: String, vType : String) extends Serializable{ var id:String = vId val name:String = vName val stype:String = vType }
class Cobj extends Serializable{ var lists = new ObjectArraySet[Vobj]() }
现有数据内容如下:
val c01 = new Vobj("1","hu","1") val c02 = new Vobj("2","hu","2") val c03 = new Vobj("3","hu","3") val c04 = new Vobj("4","hu","1") val c05 = new Vobj("5","hu","1")
现在需要按 V对象的值进行分组合并,将转化成 C对象,现有两种实现方式:
第一种:
val testCobjRdd = sc.parallelize(List(c01,c02,c03,c04,c05)) testCobjRdd.map(x => { //在map阶段就进行对象的转换 val cj = new Cobj() cj.lists.add(x) (x.stype,cj) }).reduceByKey((pre:Cobj,aft:Cobj) => { //构造一个新的中间对象并间数据进行汇集 val mid = new Cobj() mid.lists.addAll(pre.lists) mid.lists.addAll(aft.lists) mid }).foreach(x => { println(x._1+"-"+x._2.lists.size()) })
第二种:
testCobjRdd.map(x => { (x.stype,x) }).combineByKey[Cobj]((v:Vobj)=>{ //创建V对象的初始化[在第一个RDD中的第一条C记录中逻辑] val midC = new Cobj() midC.lists.add(v) midC },(c:Cobj,v:Vobj) => { //由C到V汇集业务逻辑[在第一个RDD中的第一条V记录与第二条C记录的逻辑] c.lists.add(v) c },(cPre:Cobj,cAft:Cobj) => { //由V到V汇集业务逻辑[在第一个与第二个RDD中汇集时的逻辑] val midC = new Cobj() midC.lists.addAll(cPre.lists) midC.lists.addAll(cAft.lists) midC }).foreach(x => { println(x._1+"-"+x._2.lists.size()) })
结果都会如下:
2-1
3-1
1-3
其中,这两种实现逻辑是等价的。但是根据实际消耗的时间来看,第二种要好于第一种。
另外,重点讲一个严重错误事例,有的童鞋为了省事,只用V一个对象做合并,然后 V对象内新建一个集合属性,如下:
class Vobj(vId: String, vName: String, vType : String) extends Serializable{ var id:String = vId val name:String = vName val stype:String = vType var lists = new ObjectArraySet[Vobj]() }
然后,在代码中如下:
val testCobjRdd = sc.parallelize(List(c01,c02,c03,c04,c05)) testCobjRdd.map(x => { (x.stype,x) }).reduceByKey((pre,aft) => { val cMid = new Vobj(null,null,null) cMid.lists.add(pre) cMid.lists.add(aft) cMid }).foreach(x => { println(x._1+"-"+x._2.lists.size()) })
却发现结果为:
2-0
3-0
1-2
所以,上面的这种事例是严重错误的。因为,如果结果集中如果只有一个对象,那reduce的时候就不会参于里面的函数运算。