Spark 三次排序

Spark 三次排序

<pre name="code" class="java">package com.dtspark

import org.apache.spark.{SparkConf, SparkContext}

/**
  * 三次排序,具体实现步骤
  * 第一步:按照Ordered和Seriallizable接口实现自定义排序的Key
  * 第二部:将要进行三次排序的文件加载进来进行<Key,Value>类型的RDD
  * 第三部:使用sortByKey基于自定义的Key进行三次排序
  * 第四部:去除掉排序的Key,只保留排序的结果
  * Created by huangle on 2016/9/30.
  */

class ThirdSortKey(val first: Int, val second: Int, val third: Int) extends Ordered[ThirdSortKey] with Serializable{
	def compare(other: ThirdSortKey): Int = {
		if(this.first - other.first != 0){
			this.first - other.first
		}else{
			if(this.second - other.second != 0){
				this.second - other.second
			}else{
				this.third - other.third
			}
			
		}
	}
}

object SecondarySortKeyApp {
	def main(args: Array[String]): Unit = {
		val sc = sparkContext("Secondary Sort")   //创建SparkContext
		val lines = sc.textFile("E://SOFTLEARN//BOOKDATA//dataset//1test.txt", 1)
		val pairWithSortKey = lines.map(line => (
			new ThirdSortKey(line.split(" ")(0).toInt, line.split(" ")(1).toInt, line.split(" ")(2).toInt), line
		  ))

		val sorted = pairWithSortKey.sortByKey(true)
		sorted.collect().foreach(println)
		val sortedResult = sorted.map(sortedLine => sortedLine._2)
		sortedResult.collect().foreach(println)
	}
	
	//初始化程序配置
	def sparkContext(name: String)={
		val conf = new SparkConf().setAppName(name).setMaster("local")
		val sc = new SparkContext(conf)
		sc.setLogLevel("WARN")
		sc
	}
}

 
 


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

huangle63

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值