Spark 单Value类型算子案例详解

1.
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.rdd.RDD
//测试Distinct函数
object _01DistinctDemo {
    def main(args: Array[String]): Unit = {
        val conf = new SparkConf().setMaster("local").setAppName("getRDD")
        val sc = new SparkContext(conf)

        val rdd: RDD[Int] = sc.makeRDD(List(1, 2, 2, 3, 4, 4, 3, 0),2)
        val value: RDD[Int] = rdd.distinct(2)
        value.collect().foreach(println)
        //4
        //0
        //2
        //1
        //3
        /**
         * 查看每个分区里的数据
         * 指定了两个分区 并指定分区号通过下标
         */
        val value1: RDD[(Int, Int)] = value.mapPartitionsWithIndex((index, iter) => {
            iter.map((index, _))
        }).distinct(2)
        value1.collect().foreach(println)
        //(0,4)
        //(0,0)
        //(1,1)
        //(1,3)
        //(0,2)
    }

}

2.
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

//Coalesce用于缩减分区数
object _02CoalesceDemo {
    def main(args: Array[String]): Unit = {
        val conf = new SparkConf().setMaster("local").setAppName("getRDD")
        val sc = new SparkContext(conf)

        val rdd: RDD[Int] = sc.makeRDD(List(1, 2, 2, 3, 4, 4, 3, 0),2)
        val value: RDD[Int] = rdd.coalesce(2)
        val value1: RDD[(Int, Int)] = value.mapPartitionsWithIndex((index, iter) => {
            iter.map((index, _))
        }).distinct()  //可以增加.distinct()对集合内的数据去重再进行分区
        println(value1.getNumPartitions)
        value1.collect().foreach(println)
    }
}
//2
//(1,4)
//(1,0)
//(0,1)
//(0,3)
//(1,3)
//(0,2)

3.
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}
//Repatition函数
//用于重新分区
object _03RepatitionDemo {
    def main(args: Array[String]): Unit = {
        val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("test")
        val sc: SparkContext = new SparkContext(conf)

        val rdd: RDD[Int] = sc.makeRDD(List(2, 3, 5, 6,4,3,4,5,2),2)
        //参数就是输入期望的分区数
        val value: RDD[Int] = rdd.repartition(4)
        val result: RDD[(Int, Int)] = value.mapPartitionsWithIndex((index, iter) => {
            iter.map((index, _))
        })
        result.collect().foreach(println)
    }
}
//(0,3)
//(0,3)
//(1,5)
//(1,4)
//(2,6)
//(2,5)
//(3,2)
//(3,4)
//(3,2)

4.
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

//SortBy函数的应用
//就是进行排序
object _04SortByDemo {
    def main(args: Array[String]): Unit = {
        val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("test")
        val sc: SparkContext = new SparkContext(conf)

        val rdd: RDD[Int] = sc.makeRDD(List(2, 3, 5, 6,4,3,4,5,2),3)

        /**
         * 第一个参数就是用于指定排序字段,
         * 第二个参数就是Boolean类型的值 true为升序 且是默认
         */
        //val result: RDD[Int] = rdd.sortBy(num => num)  //就是升序排序的意思

        val value: RDD[Int] = rdd.sortBy(num => num, false)  //使用降序

        //输出分区号
        val result: RDD[(Int, Int)] = value.mapPartitionsWithIndex((index, iter) => {
            iter.map((index, _)) //可以打印出分区号
        })
        result.collect().foreach(println)
        //(0,6)
        //(0,5)
        //(0,5)
        //(1,4)
        //(1,4)
        //(2,3)
        //(2,3)
        //(2,2)
        //(2,2)
    }
}

5.
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}
//需求分析
//按key输出,进行排序 key是string类型
object _05SortBy_exercise {
    def main(args: Array[String]): Unit = {
        val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("test")
        val sc: SparkContext = new SparkContext(conf)

        val rdd: RDD[(String, Int)] = sc.makeRDD(List(("11", 1), ("1", 1), ("2", 2)))
        //按照第一个元素做排序 第一个是字典排序 第二个是按Int排序
        //val result: RDD[(String, Int)] = rdd.sortBy(_._1.toInt)  //(1,1) (2,2) (11,1)
        val result: RDD[(String, Int)] = rdd.sortBy(_._1)//(1,1)
                                                            //(11,1)
                                                                //(2,2)
        result.collect().foreach(println)
    }
}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值