Spark sortBy

Saprk sortBy功能

排序
参数 ascending: Boolean = true(升序)
参数 numPartitions: Int = this.partitions.length(分区)

案例演示

需求:对List(1, 4, 3, 2, 5)升序和降序排序,然后输出到控制台

package com.xcu.bigdata.spark.core.pg02_rdd.pg022_rdd_transform

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

/**
 * @Package : com.xcu.bigdata.spark.core.pg02_rdd.pg022_rdd_transform
 * @Desc : 排序
 */
object Spark10_SortBy {
  def main(args: Array[String]): Unit = {
    //创建配置文件
    val conf: SparkConf = new SparkConf().setAppName("").setMaster("local[*]")
    //创建SparkContext,该对象是提交的入口
    val sc = new SparkContext(conf)
    //创建RDD
    val rdd: RDD[Int] = sc.parallelize(List(1, 4, 3, 2, 5))
    
    //升序排序
    rdd.sortBy(x => x).collect().foreach(println)
    println("*******************************")
    //降序排序
    rdd.sortBy(x => x, false).collect().foreach(println)
    
    //释放资源
    sc.stop()
  }
}

案例2:对k-v形式的数据排序

    //创建RDD
    val rdd: RDD[(String, Int)] = sc.makeRDD(List(("zs", 22), ("lisi", 33)))
    // 按照value进行降序排序
    val resRDD: RDD[(String, Int)] = rdd.sortBy(_._2, false)
    // 按照key进行降序排序
    val resRDD1: RDD[(String, Int)] = rdd.sortBy(_._1, false)
    resRDD.collect().foreach(println)
    println("*************************")
    resRDD1.collect().foreach(println)

结果:

(lisi,33)
(zs,22)
*************************
(zs,22)
(lisi,33)

案例3:对对象进行排序

object Test {
  def main(args: Array[String]): Unit = {
    //创建配置文件
    val conf: SparkConf = new SparkConf().setAppName("Spark01_Cache").setMaster("local[*]")
    //创建SparkContext,该对象是提交的入口
    val sc = new SparkContext(conf)
    //创建RDD
    val listStudent = List(Student("zs", 22), Student("li", 44), Student("li", 33))
    val rdd: RDD[Student] = sc.makeRDD(listStudent)
    // 按照name进行升序排序
    val resRDD: RDD[Student] = rdd.sortBy(stu => (stu.name), true)
    resRDD.collect().foreach(println)
    // 按照name进行升序排序,name相同时,在按照age升序排序
    println("****************")
    val resRDD1: RDD[Student] = rdd.sortBy(stu => (stu.name, stu.age), true)
    resRDD1.collect().foreach(println)
    // 按照name进行升序排序,name相同时,在按照age降序排序(这种方式只有自定义排序规则了)
  }
}

case class Student(name: String, age: Int)

结果:

Student(li,44)
Student(li,33)
Student(zs,22)
*************************
Student(li,33)
Student(li,44)
Student(zs,22)

结语:

注意:sortBy在数据量特大的情况下,可能会OOM,建议使用sortByKey

Spark sortByKey

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark中的sort by和order by是用于对数据进行排序的操作。sort by是将数据放到多个reduce里面进行排序,排序后每一个reduce里面的数据是有序的,但是全部数据不一定有序。如果reduce个数为1,此时全部数据有序,等价于order by操作。当需要对全部数据排序时,可以先使用sort by局部排序(sort by可以设置reduce个数),然后再使用order by排序,将会大大提高效率。\[1\] Spark采用的排序方法是TIMSort,它是归并排序的优化版,并且在小数据量时切换为binarySort来提升效率。无论是TimSort还是binarySort都是排序稳定的,因此不应该出现多次结果不一致的情况。在Spark的代码中,可以追踪到ShuffleInMemorySorter类中的insertRecord方法,该方法用于将记录插入到排序器中。\[2\] 另外,Spark中还有其他与排序相关的操作,如group by、distribute by和order by。group by将相同的key放到同一个reduce中,但后面必须跟聚合操作;distribute by和group by的作用类似,都是将key值相同的数据放到同一个reduce中;而order by是全局排序,而sort by是局部排序,当sort by中reduce为1时,等价于order by。\[3\] #### 引用[.reference_title] - *1* *3* [【Hive】sort by、order by、 distribute by、 group by 、cluster by区别](https://blog.csdn.net/Asher117/article/details/108979573)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [避坑:Spark Sql的Order By排序是不稳定的](https://blog.csdn.net/weixin_39445556/article/details/121072103)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值