23、Spark核心编程之transformation操作开发实战

将集合中每个元素乘以2

map:将集合中每个元素乘以2
使用map算子,将集合中的每个元素都乘以2
map算子,是对任何类型的RDD,都可以调用的,在Java中,map算子接收的参数是Function对象
创建的Function对象,一定会让你设置第二个泛型参数,这个泛型类型,就是返回的新元素的类型
同时call()方法的返回类型,也必须与第二个泛型类型同步
在call()方法内部,就可以对原始RDD中的每一个元素进行各种处理和计算,并返回一个新的元素
所有新的元素,就会组成一个新的RDD
java版本

    // map:将集合中每个元素乘以2
    public static void map() {
        // 创建SparkConf
        SparkConf sparkConf = new SparkConf().setAppName("LineCountJava").setMaster("local");
        // 创建JavaSparkContext
        JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);

        // 创建集合
        List<Integer> nums = Arrays.asList(1, 2, 3, 4, 5, 6, 7, 8, 9, 10);
        // 并行化集合,创建初始化RDD
        JavaRDD<Integer> numsRDD = javaSparkContext.parallelize(nums);
        // 使用map算子,将集合中的每个元素都乘以2
        // map算子,是对任何类型的RDD,都可以调用的,在Java中,map算子接收的参数是Function对象
        // 创建的Function对象,一定会让你设置第二个泛型参数,这个泛型类型,就是返回的新元素的类型
        // 同时call()方法的返回类型,也必须与第二个泛型类型同步
        // 在call()方法内部,就可以对原始RDD中的每一个元素进行各种处理和计算,并返回一个新的元素
        // 所有新的元素,就会组成一个新的RDD
        JavaRDD<Integer> multipleNumberRDD = numsRDD.map(new Function<Integer, Integer>() {
            @Override
            public Integer call(Integer integer) throws Exception {
                return integer * 2;
            }
        });
        multipleNumberRDD.foreach(new VoidFunction<Integer>() {
            @Override
            public void call(Integer integer) throws Exception {
                System.out.println("integer = " + integer);
            }
        });

        // 关闭javaSparkContext
        javaSparkContext.close();
    }

scala版本

  def map(): Unit = {
    val conf = new SparkConf().setAppName("mapScala").setMaster("local")
    val sparkContext = new SparkContext(conf)
    val numsRDD = sparkContext.parallelize(1 to 10)
    val multipleNumbersRDD = numsRDD.map(num => num * 2)
    multipleNumbersRDD.foreach(num => println("num = " + num))
  }

过滤出集合中的偶数

filter:过滤出集合中的偶数
filter算子,传入的也是Function,其他的使用注意点,实际上和map是一样的
但是唯一的不同,就是call()方法的返回类型是Boolean
每一个初始RDD中的元素,都会传入call()方法,此时你可以执行各种自定义的计算逻辑,来判断这个元素是否是你想要的
如果你想在新的RDD中保留这个元素,那么就返回true,否则,不想保留这个元素,返回false
java版本

    /**
     * filter算子案例,过滤集合中的偶数
     */
    public static void filter(){
        // 创建SparkConf
        SparkConf sparkConf = new SparkConf().setAppName("filterJava").setMaster("local");
        // 创建JavaSparkContext
        JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);

        // 创建集合
        List<Integer> nums = Arrays.asList(1, 2, 3, 4, 5, 6, 7, 8, 9, 10);
        // 并行化集合,创建初始化RDD
        JavaRDD<Integer> numsRDD = javaSparkContext.parallelize(nums);
        // 对初始RDD执行filter算子,过滤其中的偶数
        // filter算子,传入的也是Function,其他的使用注意点,实际上和map是一样的
        // 但是唯一的不同,就是call()方法的返回类型是Boolean
        // 每一个初始RDD中的元素,都会传入call()方法,此时你可以执行各种自定义的计算逻辑
        // 来判断这个元素是否是你想要的
        // 如果你想在新的RDD中保留这个元素,那么就返回true,否则,不想保留这个元素,返回false
        JavaRDD<Integer> evenNumberRDD = numsRDD.filter(new Function<Integer, Boolean>() {
            @Override
            public Boolean call(Integer integer) throws Exception {
                return integer % 2 == 0;
            }
        });
        // 打印新的RDD
        evenNumberRDD.foreach(new VoidFunction<Integer>() {
            @Override
            public void call(Integer integer) throws Exception {
                System.out.println("integer = " + integer);
            }
        });
        // 关闭javaSparkContext
        javaSparkContext.close();
    }

scala版本

  def filter(): Unit = {
    val conf = new SparkConf().setAppName("filterScala").setMaster("local")
    val sparkContext = new SparkContext(conf)
    val numsRDD = sparkContext.parallelize(1 to 10)
    val evenNumberRDD = numsRDD.filter(num => num % 2 == 0)
    evenNumberRDD.foreach(num => println("num = " + num))
  }

将行拆分为单词

flatMap:将行拆分为单词
flatMap算子,在Java中,接收的参数是FlatMapFunction
我们需要自己定义FlatMapFunction的第一个泛型类型,即,代表了返回的新元素的类型
call()方法,返回的类型,不是U,而是Iterable<U>,这里的U也与第二个泛型类型相同
flatMap其实就是,接收原始RDD中的每个元素,并进行各种逻辑的计算和处理,返回可以返回多个元素
多个元素,即封装在Iterable集合中,可以使用ArrayList等集合
新的RDD中,即封装了所有的新元素,也就是说,新的RDD大小一定是大于等于原始RDD的大小
java版本

    /**
     * flatMap:将行拆分为单词
     */
    private static void flatMap() {
        // 创建SparkConf
        SparkConf sparkConf = new SparkConf().setAppName("flatMapJava").setMaster("local");
        // 创建JavaSparkContext
        JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);

        // 创建集合
        List<String> lineList = Arrays.asList("hello spark", "hello hadoop", "hello yarn");
        // 并行化集合,创建初始化RDD
        JavaRDD<String> linesRDD = javaSparkContext.parallelize(lineList);

        // 对RDD执行flatMap算子,将每一行文本,拆分为多个单词
        // flatMap算子,在Java中,接收的参数是FlatMapFunction
        // 我们需要自己定义FlatMapFunction的第一个泛型类型,即,代表了返回的新元素的类型
        // call()方法,返回的类型,不是U,而是Iterable<U>,这里的U也与第二个泛型类型相同
        // flatMap其实就是,接收原始RDD中的每个元素,并进行各种逻辑的计算和处理,返回可以返回多个元素
        // 多个元素,即封装在Iterable集合中,可以使用ArrayList等集合
        // 新的RDD中,即封装了所有的新元素,也就是说,新的RDD大小一定是大于等于原始RDD的大小
        JavaRDD<String> words = linesRDD.flatMap(new FlatMapFunction<String, String>() {
            @Override
            public Iterable<String> call(String s) throws Exception {
                return Arrays.asList(s.split(" "));
            }
        });
        // 打印新的RDD
        words.foreach(new VoidFunction<String>() {
            @Override
            public void call(String s) throws Exception {
                System.out.println("s = " + s);
            }
        });

        // 关闭javaSparkContext
        javaSparkContext.close();
    }

scala版本

  def flatMap(): Unit = {
    val conf = new SparkConf().setAppName("flatMapScala").setMaster("local")
    val sparkContext = new SparkContext(conf)
    val lines = sparkContext.parallelize(Array("hello spark", "hello hadoop", "hello yarn"))
    val words = lines.flatMap(line => line.split(" "))
    words.foreach(word => println("word = " + word))
  }

将每个班级的成绩进行分组

groupByKey:将每个班级的成绩进行分组
执行groupByKey算子,返回的还是JavaPairRDD
但是,JavaPairRDD的第一个泛型类型不变,第二个泛型类型变成Iterable这种集合类型
也就是说,按照了key进行分组,那么每个key可能都会有多个value,此时多个value聚合成了Iterable
那么接下来,我们就可以通过groupedScoreRDD这种JavaPairRDD,很方便的处理某个分组内的数据
java版本

/**
     * groupByKey:将每个班级的成绩进行分组
     */
    public static void groupByKey() {
        // 创建SparkConf
        SparkConf sparkConf = new SparkConf().setAppName("groupByKeyJava").setMaster("local");
        // 创建JavaSparkContext
        JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);

        // 创建集合
        List<Tuple2<String, Integer>> scoreList = Arrays.asList(
                new Tuple2<String, Integer>("class1", 80),
                new Tuple2<String, Integer>("class2", 80),
                new Tuple2<String, Integer>("class1", 95),
                new Tuple2<String, Integer>("class2", 85)
        );

        // 并行化集合,创建初始化RDD
        JavaPairRDD<String, Integer> scoreRDD = javaSparkContext.parallelizePairs(scoreList);
        // 针对scoreRDD,执行groupByKey算子,对每个班级的成绩进行分组
        // 执行groupByKey算子,返回的还是JavaPairRDD
        // 但是,JavaPairRDD的第一个泛型类型不变,第二个泛型类型变成Iterable这种集合类型
        // 也就是说,按照了key进行分组,那么每个key可能都会有多个value,此时多个value聚合成了Iterable
        // 那么接下来,我们就可以通过groupedScoreRDD这种JavaPairRDD,很方便的处理某个分组内的数据
        JavaPairRDD<String, Iterable<Integer>> groupedScoreRDD = scoreRDD.groupByKey();

        // 打印groupedScoreRDD
        groupedScoreRDD.foreach(new VoidFunction<Tuple2<String, Iterable<Integer>>>() {
            @Override
            public void call(Tuple2<String, Iterable<Integer>> stringIterableTuple2) throws Exception {
                System.out.println("stringIterableTuple2._1 = " + stringIterableTuple2._1);
                Iterable<Integer> integers = stringIterableTuple2._2;
                for(Integer score : integers) {
                    System.out.println("score = " + score);
                }
            }
        });

        // 关闭javaSparkContext
        javaSparkContext.close();
    }

scala版本

  def groupByKey(): Unit = {
    val conf = new SparkConf().setAppName("groupByKeyScala").setMaster("local")
    val sparkContext = new SparkContext(conf)
    val scores = Array(("class1", 80), ("class2", 80), ("class1", 95), ("class2", 85))
    val scoreRDD = sparkContext.parallelize(scores)
    val groupedScoreRDD = scoreRDD.groupByKey()
    groupedScoreRDD.foreach(score => {
      println("className " + score._1)
      score._2.foreach(score => println("score " + score))
    })
  }

统计每个班级的总分

reduceByKey:统计每个班级的总分
reduceByKey,接收的参数是Function2类型,它有三个泛型参数,实际上代表了三个值
第一个泛型类型和第二个泛型类型,代表了原始RDD中的元素的value的类型
因此对每个key进行reduce,都会依次将第一个、第二个value传入,将返回的值再与第三个value传入
因此此处,会自动定义两个类型参数类型,代表call()方法的两个传入参数的类型
第三个类型参数,代表了每次reduce操作返回的值的类型,默认也是与原始RDD的value类型相同的
reduceByKey算子返回的RDD,还是JavaPairRDD<Key,Value>
java版本

    /**
     * reduceByKey:统计每个班级的总分
     */
    public static void reduceByKey() {
        // 创建SparkConf
        SparkConf sparkConf = new SparkConf().setAppName("reduceByKeyJava").setMaster("local");
        // 创建JavaSparkContext
        JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);

        // 创建集合
        List<Tuple2<String, Integer>> scoreList = Arrays.asList(
                new Tuple2<String, Integer>("class1", 80),
                new Tuple2<String, Integer>("class2", 80),
                new Tuple2<String, Integer>("class1", 95),
                new Tuple2<String, Integer>("class2", 85)
        );

        // 并行化集合,创建初始化RDD
        JavaPairRDD<String, Integer> scoreRDD = javaSparkContext.parallelizePairs(scoreList);

        // 针对scoreRDD,执行reduceByKey算子
        // reduceByKey,接收的参数是Function2类型,它有三个泛型参数,实际上代表了三个值
        // 第一个泛型类型和第二个泛型类型,代表了原始RDD中的元素的value的类型
        // 因此对每个key进行reduce,都会依次将第一个、第二个value传入,将返回的值再与第三个value传入
        // 因此此处,会自动定义两个类型参数类型,代表call()方法的两个传入参数的类型
        // 第三个类型参数,代表了每次reduce操作返回的值的类型,默认也是与原始RDD的value类型相同的
        // reduceByKey算子返回的RDD,还是JavaPairRDD<Key,Value>
        JavaPairRDD<String, Integer> totalScoreRDD = scoreRDD.reduceByKey(new Function2<Integer, Integer, Integer>() {
            @Override
            public Integer call(Integer integer, Integer integer2) throws Exception {
                return integer + integer2;
            }
        });

        //遍历reducedScore
        totalScoreRDD.foreach(new VoidFunction<Tuple2<String, Integer>>() {
            @Override
            public void call(Tuple2<String, Integer> stringIntegerTuple2) throws Exception {
                System.out.println(stringIntegerTuple2._1 + "班级的总分为 " + stringIntegerTuple2._2);
            }
        });

        // 关闭javaSparkContext
        javaSparkContext.close();

    }

scala版本

  def reduceByKey(): Unit = {
    val conf = new SparkConf().setAppName("reduceByKeyScala").setMaster("local")
    val sparkContext = new SparkContext(conf)
    val scores = Array(("class1", 80), ("class2", 80), ("class1", 95), ("class2", 85))
    val scoreRDD = sparkContext.parallelize(scores)
    val totalScoreRDD = scoreRDD.reduceByKey(_ + _)
    totalScoreRDD.foreach(score => println(score._1 + "班级总分为:" + score._2))
  }

将学生分数进行排序

sortByKey:将学生分数进行排序
sortByKey其实就是根据key进行排序,可以手动指定升序,或者降序
返回的,还是JavaPairRDD,其中元素内容,都是和原始RDD一模一样的,就是RDD中元素顺序不一样了
java版本

    /**
     * sortByKey:将学生分数进行排序
     */
    private static void sortByKey() {
        // 创建SparkConf
        SparkConf sparkConf = new SparkConf().setAppName("sortByKeyJava").setMaster("local");
        // 创建JavaSparkContext
        JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);

        // 创建集合
        List<Tuple2<Integer, String>> scoreList = Arrays.asList(
                new Tuple2<Integer, String>(80,"Zhao Jun"),
                new Tuple2<Integer, String>(85,"Feng Xiangbin"),
                new Tuple2<Integer, String>( 70,"Zhu"),
                new Tuple2<Integer, String>(100,"Shou")
        );

        // 并行化集合,创建初始化RDD
        JavaPairRDD<Integer, String> scoreRDD = javaSparkContext.parallelizePairs(scoreList);

        // 对scoreRDD 执行sortByKey算子
        // sortByKey其实就是根据key进行排序,可以手动指定升序,或者降序
        // 返回的,还是JavaPairRDD,其中元素内容,都是和原始RDD一模一样的
        // 就是顺序不一样了
        //
        JavaPairRDD<Integer, String> sortedScore = scoreRDD.sortByKey(false);
        sortedScore.foreach(new VoidFunction<Tuple2<Integer, String>>() {
            @Override
            public void call(Tuple2<Integer, String> integerStringTuple2) throws Exception {
                System.out.println(integerStringTuple2._2  + "的分数为" + integerStringTuple2._1);
            }
        });

        // 关闭javaSparkContext
        javaSparkContext.close();
    }

scala版本

  def sortByKey(): Unit = {
    val conf = new SparkConf().setAppName("sortByKeyScala").setMaster("local")
    val sparkContext = new SparkContext(conf)
    val scores = Array((70, "Zhao Jun"), (80, "Feng Xiangbin"), (95, "Shou"), (85, "Zhu"))
    val scoresRDD = sparkContext.parallelize(scores)
    val sortedRDD = scoresRDD.sortByKey(false)
    sortedRDD.foreach(score => println(score._2 + "的成绩为:" + score._1))
  }

打印每个学生的成绩

join:打印每个学生的成绩
join以后,还是会根据key进行join,并返回JavaPairRDD
但是JavaPairRDD的第一个泛型类型是之前两个JavaPairRDD的key的类型,因为是通过key进行join的
第二个泛型类型,是Tuple2<v1, v2>的类型,Tuple2的两个泛型分别为原始RDD的value的类型
join,就返回的RDD的每一个元素,就是通过key join上的一个pair
什么意思呢?比如有(1, 1) (1, 2) (1, 3)的一个RDD
还有一个(1, 4) (2, 1) (2, 2)的一个RDD
join以后,实际上会得到(1 (1, 4)) (1, (2, 4)) (1, (3, 4))
java版本

    /**
     * join:打印每个学生的成绩
     */
    public static void join() {
        // 创建SparkConf
        SparkConf sparkConf = new SparkConf().setAppName("joinJava").setMaster("local");
        // 创建JavaSparkContext
        JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);

        // 创建集合
        List<Tuple2<Integer, String>> student = Arrays.asList(
                new Tuple2<Integer, String>(1,"Zhao Jun"),
                new Tuple2<Integer, String>(2,"Feng Xiangbin"),
                new Tuple2<Integer, String>(3,"Pang"),
                new Tuple2<Integer, String>(4,"Shou")
        );
        List<Tuple2<Integer, Integer>> score = Arrays.asList(
                new Tuple2<Integer, Integer>(1,90),
                new Tuple2<Integer, Integer>(2,100),
                new Tuple2<Integer, Integer>(3,80),
                new Tuple2<Integer, Integer>(4,70)
        );

        // 并行化集合,创建初始化RDD
        JavaPairRDD<Integer, String> studentRDD = javaSparkContext.parallelizePairs(student);
        JavaPairRDD<Integer, Integer> scoreRDD = javaSparkContext.parallelizePairs(score);

        // 使用join算子关联两个RDD
        // join以后,还是会根据key进行join,并返回JavaPairRDD
        // 但是JavaPairRDD的第一个泛型类型是之前两个JavaPairRDD的key的类型,因为是通过key进行join的
        // 第二个泛型类型,是Tuple2<v1, v2>的类型,Tuple2的两个泛型分别为原始RDD的value的类型
        // join,就返回的RDD的每一个元素,就是通过key join上的一个pair
        // 什么意思呢?比如有(1, 1) (1, 2) (1, 3)的一个RDD
        // 还有一个(1, 4) (2, 1) (2, 2)的一个RDD
        // join以后,实际上会得到(1 (1, 4)) (1, (2, 4)) (1, (3, 4))
        JavaPairRDD<Integer, Tuple2<String, Integer>> studentScore = studentRDD.join(scoreRDD);

        // 遍历studentScore
        studentScore.foreach(new VoidFunction<Tuple2<Integer, Tuple2<String, Integer>>>() {
            @Override
            public void call(Tuple2<Integer, Tuple2<String, Integer>> studentScore) throws Exception {
                System.out.println("学号:" + studentScore._1 + " 姓名:" + studentScore._2._1 + " 分数:" + studentScore._2._2);
            }
        });

        // 关闭javaSparkContext
        javaSparkContext.close();
    }

scala版本

def join(): Unit = {
    val conf = new SparkConf().setAppName("joinScala").setMaster("local")
    val sparkContext = new SparkContext(conf)
    val student = Array((1, "Zhao Jun"), (2, "Feng Xiangbin"), (3, "Shou"), (4, "Zhu"))
    val scores = Array((1, 90), (2, 80), (3, 100), (4, 70))
    val studentRDD = sparkContext.parallelize(student)
    val scoreRDD = sparkContext.parallelize(scores)
    val studentScore = studentRDD.join(scoreRDD)
    studentScore.foreach(sc => println("学号:" + sc._1 + "姓名:" + sc._2._1 + "分数:" + sc._2._2))
  }

打印每个学生的成绩

cogroup:打印每个学生的成绩
相当于是,一个key join上的所有value,都给放到一个Iterable里面去了
cogroup,不太好讲解,希望通过动手编写我们的案例,仔细体会其中的奥妙
java版本

/**
     * cogroup:打印每个学生的成绩
     */
    public static void cogroup() {
        // 创建SparkConf
        SparkConf sparkConf = new SparkConf().setAppName("cogroupJava").setMaster("local");
        // 创建JavaSparkContext
        JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);

        // 创建集合
        List<Tuple2<Integer, String>> student = Arrays.asList(
                new Tuple2<Integer, String>(1,"Zhao Jun"),
                new Tuple2<Integer, String>(2,"Feng Xiangbin"),
                new Tuple2<Integer, String>(3,"Pang"),
                new Tuple2<Integer, String>(4,"Shou")
        );
        List<Tuple2<Integer, Integer>> score = Arrays.asList(
                new Tuple2<Integer, Integer>(1,90),
                new Tuple2<Integer, Integer>(2,100),
                new Tuple2<Integer, Integer>(3,80),
                new Tuple2<Integer, Integer>(4,70),
                new Tuple2<Integer, Integer>(1,80),
                new Tuple2<Integer, Integer>(2,90),
                new Tuple2<Integer, Integer>(3,70),
                new Tuple2<Integer, Integer>(4,60)
        );

        // 并行化集合,创建初始化RDD
        JavaPairRDD<Integer, String> studentRDD = javaSparkContext.parallelizePairs(student);
        JavaPairRDD<Integer, Integer> scoreRDD = javaSparkContext.parallelizePairs(score);

        // 使用cogroup算子关联两个RDD
        // 相当于是,一个key join上的所有value,都给放到一个Iterable里面去了
        // cogroup,不太好讲解,希望通过动手编写我们的案例,仔细体会其中的奥妙
        JavaPairRDD<Integer, Tuple2<Iterable<String>, Iterable<Integer>>> studentScore = studentRDD.cogroup(scoreRDD);
        studentScore.foreach(new VoidFunction<Tuple2<Integer, Tuple2<Iterable<String>, Iterable<Integer>>>>() {
            @Override
            public void call(Tuple2<Integer, Tuple2<Iterable<String>, Iterable<Integer>>> integerTuple2Tuple2) throws Exception {

            }
        });
        // 遍历studentScore
        studentScore.foreach(new VoidFunction<Tuple2<Integer, Tuple2<Iterable<String>, Iterable<Integer>>>>() {
            @Override
            public void call(Tuple2<Integer, Tuple2<Iterable<String>, Iterable<Integer>>> t) throws Exception {
                System.out.println("student id: " + t._1);
                System.out.println("student name: " + t._2._1);
                System.out.println("student score: " + t._2._2);
                System.out.println("===============================");
            }
        });
        
        // 关闭javaSparkContext
        javaSparkContext.close();

    }

scala版本

  def cogroup(): Unit ={
    val conf = new SparkConf().setAppName("cogroupScala").setMaster("local")
    val sparkContext = new SparkContext(conf)
    val student = Array((1, "Zhao Jun"), (2, "Feng Xiangbin"), (3, "Shou"), (4, "Zhu"))
    val scores = Array((1, 90), (2, 80), (3, 100), (4, 70),(1, 80), (2, 70), (3, 90), (4, 60))
    val studentRDD = sparkContext.parallelize(student)
    val scoreRDD = sparkContext.parallelize(scores)
    val studentScore = studentRDD.cogroup(scoreRDD)
    studentScore.foreach(sc => {
      println("学号:" + sc._1 )
      println("姓名:" + sc._2._1.mkString(",") )
      println("分数:" + sc._2._2.mkString(",") )
    })
  }
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值