java 二次排序_【spark】sortByKey实现二次排序

本文介绍了如何在Spark中使用Java实现二次排序,特别是通过sortByKey方法。在解决排序报错的过程中,发现了Comparator接口需要实现Serializable的问题,并给出了具体的解决方案。通过对Comparator类进行改造,成功实现了二次排序的需求。
摘要由CSDN通过智能技术生成

最近在项目中遇到二次排序的需求,和平常开发spark的application一样,开始查看API,编码,调试,验证结果。由于之前对spark的API使用过,知道API中的sortByKey()可以自定义排序规则,通过实现自定义的排序规则来实现二次排序。

这里为了说明问题,举了一个简单的例子,key是由两部分组成的,我们这里按key的第一部分的降序排,key的第二部分升序排,具体如下:JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);

List data = Arrays.asList(5, 1, 1, 4, 4, 2, 2);

JavaRDD javaRDD = javaSparkContext.parallelize(data);final Random random = new Random(100);

JavaPairRDD javaPairRDD = javaRDD.mapToPair(new PairFunction() {

@Override

public Tuple2 call(Integer integer) throws Exception {

return new Tuple2(Integer.toString(integer) + " " + random.nextInt(10),random.nextInt(10));

}

});

JavaPairRDD sortByKeyRDD = javaPairRDD.sortByKey(new Comparator() {

@Override

public int compare(String o1, String o2) {

String []o1s = o1.split(" ");

String []o2s = o2.split(" ");

if(o1s[0].compareTo(o2s[0]) == 0)

return o1s[1].compareTo(o2s[1]);

else

return -o1s[0].compareTo(o2s[0]);

}

});

System.out.println("~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~" + sortByKeyRDD.collect());

上面编码从语法上没有什么问题,可是运行下报了如下错误:java.lang.reflect.InvocationTargetException

at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)

at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)

at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)

at java.lang.reflect.Method.invoke(Method.java:606)

at org.apache.spark.serializer.SerializationDebugger$ObjectStreamClassMethods$.getObjFieldValues$extension(SerializationDebugger.scala:248)

at org.apache.spark.serializer.SerializationDebugger$SerializationDebugger.visitSerializable(SerializationDebugger.scala:158)

at org.apache.spark.serializer.SerializationDebugger$SerializationDebugger.visit(SerializationDebugger.scala:107)

at org.apache.spark.serializer.SerializationDebugger$SerializationDebugger.visitSerializable(SerializationDebugger.scala:166)

at org.apache.spark.serializer.SerializationDebugger$SerializationDebugger.visit(SerializationDebugger.scala:107)

at org.apache.spark.serializer.SerializationDebugger$SerializationDebugger.visitSerializable(SerializationDebugger.scala:166)

at org.apache.spark.serializer.SerializationDebugger$SerializationDebugger.visit(SerializationDebugger.scala:107)

at org.apache.spark.serializer.SerializationDebugger$.find(SerializationDebugger.scala:66)

at org.apache.spark.serializer.SerializationDebugger$.improveException(SerializationDebugger.scala:41)

at org.apache.spark.serializer.JavaSerializationStream.writeObject(JavaSerializer.scala:47)

at org.apache.spark.serializer.JavaSerializerInstance.serialize(JavaSerializer.scala:81)

at org.apache.spark.util.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:312)

at org.apache.spark.util.ClosureCleaner$.org$apache$spark$util$ClosureCleaner$$clean(ClosureCleaner.scala:305)

at org.apache.spark.util.ClosureCleaner$.clean(ClosureCleaner.scala:132)

at org.apache.spark.SparkContext.clean(SparkContext.scala:1891)

at org.apache.spark.SparkContext.runJob(SparkContext.scala:1764)

at org.apache.spark.SparkContext.runJob(SparkContext.scala:1779)

at org.apache.spark.rdd.RDD$$anonfun$collect$1.apply(RDD.scala:885)

at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:148)

at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:109)

at org.apache.spark.rdd.RDD.withScope(RDD.scala:286)

at org.apache.spark.rdd.RDD.collect(RDD.scala:884)

at org.apache.spark.api.java.JavaRDDLike$class.collect(JavaRDDLike.scala:335)

at org.apache.spark.api.java.AbstractJavaRDDLike.collect(JavaRDDLike.scala:47)

因此,我再次去查看相应的spark Java API文档,但是我没有发现任何指明错误的地方。好吧,那只能扒下源码吧,在javaPairRDD中def sortByKey(comp: Comparator[K], ascending: Boolean): JavaPairRDD[K, V] = {

implicit val ordering = comp // Allow implicit conversion of Comparator to Ordering.

fromRDD(new OrderedRDDFunctions[K, V, (K, V)](rdd).sortByKey(ascending))

}

其实在OrderedRDDFunctions类中有个变量ordering它是隐形的:private val ordering = implicitly[Ordering[K]]。他就是默认的排序规则,我们自己重写的comp就修改了默认的排序规则。到这里还是没有发现问题,但是发现类OrderedRDDFunctions extends Logging with Serializable,又回到上面的报错信息,扫描到“serializable”!!!因此,返回上述代码,查看Comparator interface实现,发现原来是它没有extend Serializable,故只需创建一个 serializable的comparator就可以:public interface SerializableComparator extends Comparator, Serializable { }

具体如下:private static class Comp implements Comparator,Serializable{

@Override

public int compare(String o1, String o2) {

String []o1s = o1.split(" ");

String []o2s = o2.split(" ");

if(o1s[0].compareTo(o2s[0]) == 0)

return o1s[1].compareTo(o2s[1]);           else

return -o1s[0].compareTo(o2s[0]);

}

}

JavaPairRDD sortByKeyRDD = javaPairRDD.sortByKey(new Comp());

总结下,在spark的Java API中,如果需要使用Comparator接口,须注意是否需要序列化,如sortByKey(),repartitionAndSortWithinPartitions()等都是需要序列化的。

作者:小飞_侠_kobe

链接:https://www.jianshu.com/p/37231b87de81

好的,我会给你解答关于Spark RDD实现二次排序的问题。 首先,对于二次排序(Secondary Sort),我们需要根据两个维度来对数据进行排序,比如要按照学生的学号(第一维)和成绩(第二维)进行排序。在Spark中,可以使用sortByKey函数对数据进行排序,但默认只能按照一个维度排序。 为了实现二次排序,我们需要借助Scala的Tuple(元组)类型,将学生的学号和成绩组成一个二元组,作为RDD中的元素。然后,我们可以通过对元组进行比较,实现二次排序的效果。 下面是一个Scala实现二次排序的示例代码: ```scala // 生成包含二元组的RDD val data = sc.parallelize(Seq( (1, 85), (2, 92), (3, 76), (1, 90), (2, 88), (3, 80) )) // 按照第一维升序、第二维降序排序 val sortedData = data .sortByKey() // 按照第一维升序排序 .map(_.swap) // 交换元组的顺序,变成(成绩, 学号) .sortByKey(false) // 按照第二维降序排序 .map(_.swap) // 再次交换元组的顺序,变成(学号, 成绩) // 输出排序结果 sortedData.foreach(println) ``` 在以上示例代码中,我们首先生成一个包含二元组的RDD,其中第一维为学号,第二维为成绩。然后,我们先按照第一维升序排序,再交换元组的顺序,变成(成绩, 学号),再按照第二维降序排序,最后再次交换元组的顺序,得到最终的排序结果。 这就是Spark RDD实现二次排序的基本方法,希望能对你有所帮助。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值