大数据学习笔记 3.2 RDD算子学习

目录

一、RDD的处理过程

 二、RDD算子

1、转换算子 

 2、行动算子

三、准备工作

1、准备文件

1.1、准备本地文件

1.2、把文件上传到HDFS 

2、启动Spark Shell 

2.1、启动HDFS服务

2.2、启动Spark服务

2.3、启动Spark Shell 

 四、掌握转换算子

1、映射算子 - map() 

1.1、映射算子功能

1.2、映射算子案例 

2、过滤算子 - filter()

2.1、过滤算子功能

2.2、过滤算子案例

3、扁平映射算子 - flatMap()

3.1、功能

3.2、扁平映射算子案例 

4、按键归约算子 - reduceByKey()

4.1、功能 

4.2、按键归约算子案例

 5、合并算子 - union()

5.1、功能

5.2、合并算子案例 

 6、排序算子 - sortBy()

6.1、功能

6.2、排序算子案例 

7、按键排序算子 - sortByKey()

7.1、功能

7.2、按键排序算子案例 

8、连接算子

8.1、内连接算子 - join() 

8.2、左外连接算子 - leftOuterJoin() 

8.3、右外连接算子 - rightOuterJoin()

8. 4、全外连接算子 - fullOuterJoin()

9、交集算子 - intersection()

9.1、功能

9. 2、交集算子案例

10、去重算子 - distinct()

10.1、功能 

10.2、案例 

11、组合分组算子 - cogroup()

11.1、功能

11.2、组合分组算子案例

五、掌握行动算子 

 1、归约算子 - reduce()

1.1、功能

1.2、案例 

2、采集算子 - collect()

2.1、功能

2.2、案例 

3、首元素算子 - first() 

3.1、功能

3.2、案例 

4、计数算子 - count() 

4.1、功能

4.2、案例

5、按键计数算子 - countByKey()

5.1、功能 

5.2、案例 

6、前截取算子 - take(n) 

6.1、功能

6.2、案例 

7、排序前截取算子 - takeOrdered(n)[(ordering)]

7.1、功能

7.2、案例 

8、遍历算子 - foreach() 

8.1、功能

 8.2、案例

9、存文件算子 - saveAsFile() 

9.1、功能

9.2、案例 

 

 


一、RDD的处理过程

  • Spark用Scala语言实现了RDD的API,程序开发者可以通过调用API对RDD进行操作处理。RDD经过一系列的“转换”操作,每一次转换都会产生不同的RDD,以供给下一次“转换”操作使用,直到最后一个RDD经过“行动”操作才会被真正计算处理,并输出到外部数据源中,若是中间的数据结果需要复用,则可以进行缓存处理,将数据缓存到内存中。

 二、RDD算子

  • RDD被创建后是只读的,不允许修改。Spark提供了丰富的用于操作RDD的方法,这些方法被称为算子。一个创建完成的RDD只支持两种算子:转换(Transformation)算子和行动(Action)算子。

1、转换算子 

  • RDD处理过程中的“转换”操作主要用于根据已有RDD创建新的RDD,每一次通过Transformation算子计算后都会返回一个新RDD,供给下一个转换算子使用。
  • 常用转换算子操作的API
转换算子相关说明
filter(func)筛选出满足函数func的元素,并返回一个新的数据集
map(func)将每个元素传递到函数func中,返回的结果是一个新的数据集
flatMap(func)与map()相似,但是每个输入的元素都可以映射到0或者多个输出结果
groupByKey()应用于(Key,Value)键值对的数据集时,返回一个新的(Key,Iterable <Value>)形式的数据集
reduceByKey(func)应用于(Key,Value)键值对的数据集时,返回一个新的(Key,Value)形式的数据集。其中,每个Value值是将每个Key键传递到函数func中进行聚合后的结果

 2、行动算子

  • 行动算子主要是将在数据集上运行计算后的数值返回到驱动程序,从而触发真正的计算。
  • 常用行动算子操作的API
行动算子相关说明
count()返回数据集中的元素个数
first()返回数组的第一个元素
take(n)以数组的形式返回数组集中的前n个元素
reduce(func)通过函数func(输入两个参数并返回一个值)聚合数据集中的元素
collect()以数组的形式返回数据集中的所有元素
foreach(func)将数据集中的每个元素传递到函数func中运行

三、准备工作

1、准备文件

1.1、准备本地文件

  • /home目录里创建words.txt

1.2、把文件上传到HDFS 

  • words.txt上传到HDFS系统的/park目录里

  • 查看文件内容

2、启动Spark Shell 

2.1、启动HDFS服务

  • 执行命令:start-dfs.sh

2.2、启动Spark服务

  • 执行命令:start-all.sh 

2.3、启动Spark Shell 

  • 执行名命令: spark-shell --master spark://master:7077

  • 以集群模式启动的Spark Shell,不能访问本地文件,只能访问HDFS文件,加不加hdfs://192.168.219.75:9000前缀都是一样的效果。

 四、掌握转换算子

  • 转换算子负责对RDD中的数据进行计算并转换为新的RDD。Spark中的所有转换算子都是惰性的,因为它们不会立即计算结果,而只是记住对某个RDD的具体操作过程,直到遇到行动算子才会与行动算子一起执行。

1、映射算子 - map() 

1.1、映射算子功能

  • map()是一种转换算子,它接收一个函数作为参数,并把这个函数应用于RDD的每个元素,最后将函数的返回结果作为结果RDD中对应元素的值。

1.2、映射算子案例 

  • 执行命令:val rdd1 = sc.parallelize(List(1, 2, 3, 4, 5, 6))

  •  将rdd1每个元素翻倍得到rdd2
  • rdd1应用map()算子,将rdd1中的每个元素平方并返回一个名为rdd2的新RDD

  • 上述代码中,向算子map()传入了一个函数x = > x * 2。其中,x为函数的参数名称,也可以使用其他字符,例如a => a * 2。Spark会将RDD中的每个元素传入该函数的参数中。

  • 其实,利用神奇占位符_可以写得更简洁

  • rdd1rdd2中实际上没有任何数据,因为parallelize()map()都为转化算子,调用转化算子不会立即计算结果。

  • 若需要查看计算结果,则可使用行动算子collect()。(collect是采集或收集之意)

  • 执行rdd2.collect进行计算,并将结果以数组的形式收集到当前Driver。因为RDD的元素为分布式的,数据可能分布在不同的节点上。

  • 将rdd1每个元素平方得到rdd2
  • 方法一、采用普通函数作为参数传给map()算子

  • 方法二、采用下划线表达式作为参数传给map()算子

  • 转化成整数

  • 利用映射算子打印菱形 
  • Spark Shell里实现
  • 菱形正立的等腰三角形和倒立的等腰三角形组合而成
  • 右半菱形

  • 加上前导空格,左半菱形

 

  • 前导空格折半,显示菱形

  • 在IDEA里创建项目实现
import org.apache.spark.{SparkConf, SparkContext}
import scala.collection.mutable.ListBuffer
import scala.io.StdIn

object Example01 {
  def main(args: Array[String]): Unit = {
    // 创建Spark配置对象
    val conf = new SparkConf()
      .setAppName("PrintDiamond") // 设置应用名称
      .setMaster("local[*]") // 设置主节点位置(本地调试)
    // 基于Spark配置对象创建Spark容器
    val sc = new SparkContext(conf)
    // 输入一个奇数
    print("输入一个奇数:")
    val n = StdIn.readInt()
    // 创建一个可变列表
    val list = new ListBuffer[Int]()
    // 给列表赋值
    (1 to n by 2).foreach(list.append(_))
    (n - 2 to 1 by -2).foreach(list.append(_))
    // 基于列表创建rdd
    val rdd = sc.makeRDD(list)
    // 对rdd进行映射操作
    val rdd1 = rdd.map(i => " " * ((n - i) /2 ) + "*" * i)
    // 输出rdd1结果
    rdd1.collect.foreach(println)
  }

}

 

  • 如果用户输入一个偶数,会出现什么情况?

  • 修改一下代码,避免这个问题

2、过滤算子 - filter()

2.1、过滤算子功能

  • filter(func):通过函数func对源RDD的每个元素进行过滤,并返回一个新RDD,一般而言,新RDD元素个数会少于原RDD。

2.2、过滤算子案例

  • 过滤出列表中的偶数 
  • 整数(Integer):奇数(odd number)+ 偶数(even number)

  • 基于列表创建RDD,然后利用过滤算子得到偶数构成的新RDD

  • 方法一、将匿名函数传给过滤算子

  • 方法二、用神奇占位符改写传入过滤算子的匿名函数

  • 过滤出文件中包含spark的行
  • 查看源文件/park/words.txt内容

  • 执行命令:val lines= sc.textFile("hdfs://192.168.219.75:9000/park/words.txt") ,读取文件 /park/words.txt生成RDD - lines

  • 执行命令:val sparkLines = lines.filter(_.contains("spark")),过滤包含spark的行生成RDD - sparkLines

  • 执行命令:sparkLines.collect,查看sparkLines内容,可以采用遍历算子,分行输出内容

  • 利用过滤算子输出[2000, 2500]之间的全部闰年
  • 利用循环结构嵌套选择结构来实现

  • 采用过滤算子来实现

3、扁平映射算子 - flatMap()

3.1、功能

  • flatMap()算子与map()算子类似,但是每个传入给函数func的RDD元素会返回0到多个元素,最终会将返回的所有元素合并到一个RDD。

3.2、扁平映射算子案例 

  • 统计文件中单词个数
  • 读取文件,生成RDD - rdd1,查看其内容和元素个数

  • 对于rdd1按空格拆分,做映射,生成新RDD - rdd2

  • 对于rdd1按空格拆分,做扁平映射,生成新RDD - rdd3,有一个降维处理的效果
  • 统计出有17个单词

  • 统计不规则二维列表元素个数
  • 再idea里面实现
object Example02 {
  def main(args: Array[String]): Unit = {
    // 创建不规则二维列表
    val mat = List(
      List(7, 8, 1, 5),
      List(10, 4, 9),
      List(7, 2, 8, 1, 4),
      List(21, 4, 7, -4)
    )
    // 输出二维列表
    println(mat)
    // 将二维列表扁平化为一维列表
    val arr = mat.flatten
    // 输出一维列表
    println(arr)
    // 输出元素个数
    println("元素个数:" + arr.size)
  }

}
  • 查看结果

  • 利用flatMap算子实现
import org.apache.spark.{SparkConf, SparkContext}

object Example03 {
  def main(args: Array[String]): Unit = {
    // 创建Spark配置对象
    val conf = new SparkConf()
      .setAppName("PrintDiamond") // 设置应用名称
      .setMaster("local[*]") // 设置主节点位置(本地调试)
    // 基于Spark配置对象创建Spark容器
    val sc = new SparkContext(conf)
    // 创建不规则二维列表
    val mat = List(
      List(7, 8, 1, 5),
      List(10, 4, 9),
      List(7, 2, 8, 1, 4),
      List(21, 4, 7, -4)
    )
    // 基于二维列表创建rdd1
    val rdd1 = sc.makeRDD(mat)
    // 输出rdd1
    rdd1.collect.foreach(x => print(x + " "))
    println()
    // 进行扁平化映射
    val rdd2 = rdd1.flatMap(x => x.toString.substring(5, x.toString.length - 1).split(", "))
    // 输出rdd2
    rdd2.collect.foreach(x => print(x + " "))
    println()
    // 输出元素个数
    println("元素个数:" + rdd2.count)
  }
  
}
  •  运行查看结果

4、按键归约算子 - reduceByKey()

4.1、功能 

  • reduceByKey()算子的作用对像是元素为(key,value)形式(Scala元组)的RDD,使用该算子可以将相同key的元素聚集到一起,最终把所有相同key的元素合并成一个元素。该元素的key不变,value可以聚合成一个列表或者进行求和等操作。最终返回的RDD的元素类型和原有类型保持一致。

4.2、按键归约算子案例

  • 在Spark Shell里计算学生总分
姓名语文数学英语
张三789076
李四958898
王五788060
  •  创建成绩列表scores,基于成绩列表创建rdd1,对rdd1按键归约得到rdd2,然后查看rdd2内容

  • 在IDEA里计算学生总分
import org.apache.spark.{SparkConf, SparkContext}

object CalculateScoreSum01 {
  def main(args: Array[String]): Unit = {
    // 创建Spark配置对象
    val conf = new SparkConf()
      .setAppName("PrintDiamond") // 设置应用名称
      .setMaster("local[*]") // 设置主节点位置(本地调试)
    // 基于Spark配置对象创建Spark容器
    val sc = new SparkContext(conf)
    // 创建二元组成绩列表
    val scores = List(
      ("张三", 78), ("张三", 90), ("张三", 76),
      ("李四", 95), ("李四", 88), ("李四", 98),
      ("王五", 78), ("王五", 80), ("王五", 60))
    // 基于二元组成绩列表创建RDD
    val rdd1 = sc.makeRDD(scores)
    // 对成绩RDD进行按键归约处理
    val rdd2 = rdd1.reduceByKey(_ + _)
    // 输出归约处理结果
    rdd2.collect.foreach(println)
  }

}

​
  •  运行查看结果

  • 读取四元组成绩列表
import org.apache.spark.{SparkConf, SparkContext}

import scala.collection.mutable.ListBuffer

object CalculateScoreSum02 {
  def main(args: Array[String]): Unit = {
    // 创建Spark配置对象
    val conf = new SparkConf()
      .setAppName("PrintDiamond") // 设置应用名称
      .setMaster("local[*]") // 设置主节点位置(本地调试)
    // 基于Spark配置对象创建Spark容器
    val sc = new SparkContext(conf)
    // 创建四元组成绩列表
    val scores = List(
      ("张三", 78, 90, 76),
      ("李四", 95, 88, 98),
      ("王五", 78, 80, 60)
    )
    // 将四元组成绩列表转化成二元组成绩列表
    val newScores = new ListBuffer[(String, Int)]()
    // 通过遍历算子遍历四元组成绩列表
    scores.foreach(score => {
      newScores.append(Tuple2(score._1, score._2))
      newScores.append(Tuple2(score._1, score._3))
      newScores.append(Tuple2(score._1, score._4))}
    )
    // 基于二元组成绩列表创建RDD
    val rdd1 = sc.makeRDD(newScores)
    // 对成绩RDD进行按键归约处理
    val rdd2 = rdd1.reduceByKey(_ + _)
    // 输出归约处理结果
    rdd2.collect.foreach(println)
  }

}
  •  运行查看结果

 5、合并算子 - union()

5.1、功能

  • union()算子将两个RDD合并为一个新的RDD,主要用于对不同的数据来源进行合并,两个RDD中的数据类型要保持一致。

5.2、合并算子案例 

  • 创建两个RDD,合并成一个新RDD

 6、排序算子 - sortBy()

6.1、功能

  • sortBy()算子将RDD中的元素按照某个规则进行排序。该算子的第一个参数为排序函数,第二个参数是一个布尔值,指定升序(默认)或降序。若需要降序排列,则需将第二个参数置为false。

6.2、排序算子案例 

  • 一个数组中存放了三个元组,将该数组转为RDD集合,然后对该RDD按照每个元素中的第二个值进行降序排列。

  • sortBy(x=>x._2,false)中的x代表rdd1中的每个元素。由于rdd1的每个元素是一个元组,因此使用x._2取得每个元素的第二个值。 

7、按键排序算子 - sortByKey()

7.1、功能

  • sortByKey()算子将(key, value)形式的RDD按照key进行排序。默认升序,若需降序排列,则可以传入参数false

7.2、按键排序算子案例 

  • 将三个二元组构成的RDD按键先降序排列,然后升序排列

8、连接算子

8.1、内连接算子 - join() 

  • 功能
  • join()算子将两个(key, value)形式的RDD根据key进行连接操作,相当于数据库的内连接(Inner Join),只返回两个RDD都匹配的内容。
  • 案例
  • 将rdd1与rdd2进行内连接

 

8.2、左外连接算子 - leftOuterJoin() 

  • 功能
  • leftOuterJoin()算子与数据库的左外连接类似,以左边的RDD为基准(例如rdd1.leftOuterJoin(rdd2),以rdd1为基准),左边RDD的记录一定会存在。例如,rdd1的元素以(k,v)表示,rdd2的元素以(k, w)表示,进行左外连接时将以rdd1为基准,rdd2中的k与rdd1的k相同的元素将连接到一起,生成的结果形式为(k, (v, Some(w))。rdd1中其余的元素仍然是结果的一部分,元素形式为(k,(v, None)。Some和None都属于Option类型,Option类型用于表示一个值是可选的(有值或无值)。若确定有值,则使用Some(值)表示该值;若确定无值,则使用None表示该值。
  • 案例
  • rdd1与rdd2进行左外连接

8.3、右外连接算子 - rightOuterJoin()

  •  功能
  • rightOuterJoin()算子的使用方法与leftOuterJoin()算子相反,其与数据库的右外连接类似,以右边的RDD为基准(例如rdd1.rightOuterJoin(rdd2),以rdd2为基准),右边RDD的记录一定会存在。
  • 案例
  • rdd1与rdd2进行右外连接

8. 4、全外连接算子 - fullOuterJoin()

  • 功能
  • fullOuterJoin()算子与数据库的全外连接类似,相当于对两个RDD取并集,两个RDD的记录都会存在。值不存在的取None。

案例

  • rdd1与rdd2进行全外连接

 

9、交集算子 - intersection()

9.1、功能

  • intersection()算子对两个RDD进行交集操作,返回一个新的RDD。要求两个算子类型要一致。

9. 2、交集算子案例

  • rdd1与rdd2进行交集操作,满足交换律

  • A∩B=ϕ

 

10、去重算子 - distinct()

10.1、功能 

  • distinct()算子对RDD中的数据进行去重操作,返回一个新的RDD。有点类似与集合的不允许重复元素。

10.2、案例 

  • 去掉rdd中重复的元素

11、组合分组算子 - cogroup()

11.1、功能

  • cogroup()算子对两个(key, value)形式的RDD根据key进行组合,相当于根据key进行并集操作。例如,rdd1的元素以(k, v)表示,rdd2的元素以(k, w)表示,执行rdd1.cogroup(rdd2)生成的结果形式为(k, (Iterable<v>, Iterable<w>))。

11.2、组合分组算子案例

  • rdd1与rdd2进行组合分组操作

五、掌握行动算子 

  • Spark中的转化算子并不会马上进行运算,而是在遇到行动算子时才会执行相应的语句,触发Spark的任务调度。
行动算子功能说明
reduce(func)将RDD中的元素进行聚合计算,func为传入的聚合函数
collect()向Driver以数组形式返回数据集的所有元素。通常对于过滤操作或其他返回足够小的数据子集的操作非常有用
count()返回数据集中元素的数量
countByKey()统计RDD 中key相同的元素的数量,仅元素类型为键值对(key, value)的RDD可用,返回的结果类型为Map
foreach(func)对RDD中的每一个元素运行给定的函数func
first()返回数据集中第一个元素
take(n)返回包含数据集前n个元素组成的数组
takeOrdered(n, [ordering])返回RDD中的前n个元素,并以自然顺序或自定义的比较器顺序进行排序
saveAsTextFile(path)将数据集中的元素持久化为一个或一组文本文件,并将文件存储在本地文件系统、HDFS或其他Hadoop支持的文件系统的指定目录中。Spark 会对每个元素调用toString()方法,将每个元素转化为文本文件中的一行。
saveAsSequenceFile(path)将数据集中的元素持久化为一个 Hadoop SequenceFile文件,并将文件存储在木地文件系统、HDFS 或其他Hadoop支持的文件系统的指定目录中。实现了Hadoop Writable接口的键值对形式的RDD可以使用该操作。
saveAsObjectFile(path)将数据集中的元素序列化成对象,存储到文件中。然后可以使用SparkContext.objectFile()对该文件进行加载。

 1、归约算子 - reduce()

1.1、功能

  • reduce()算子按照传入的函数进行归约计算

1.2、案例 

  • 计算1 + 2 + 3 + … … + 100 1 + 2 + 3 + …… + 1001+2+3+……+100的值

  • 计算1 × 2 × 3 × 4 × 5 × 6 1 \times 2 \times 3 \times 4 \times 5 \times 61×2×3×4×5×6的值(阶乘 - 累乘)

2、采集算子 - collect()

2.1、功能

  • collect()算子向Driver以数组形式返回数据集的所有元素。通常对于过滤操作或其他返回足够小的数据子集的操作非常有用。

2.2、案例 

  • 显示RDD的全部元素

3、首元素算子 - first() 

3.1、功能

  • first()算子返回数据集中第一个元素

3.2、案例 

  • 显示RDD的首元素

4、计数算子 - count() 

4.1、功能

  • count()算子统计RDD的元素个数

4.2、案例

  • 统计RDD的元素个数 

  • 如果要统计单词个数,那就要采用扁平映射算子

 

5、按键计数算子 - countByKey()

5.1、功能 

  • countByKey()算子按键统计RDD键值出现的次数,返回由键值和次数构成的映射。

5.2、案例 

  • List集合中存储的是键值对形式的元组,使用该List集合创建一个RDD,然后对其进行countByKey的计算。

6、前截取算子 - take(n) 

6.1、功能

  • take(n)算子返回RDD的前n个元素(同时尝试访问最少的partitions),返回结果是无序的,测试使用。

6.2、案例 

  • 返回集合中前任意多个元素组成的数组

  • 三种情况:返回空集、真子集、全集

7、排序前截取算子 - takeOrdered(n)[(ordering)]

7.1、功能

  • takeOrdered(n, [ordering])算子返回RDD中的前n个元素,并以自然顺序或自定义的比较器顺序进行排序

7.2、案例 

  • 返回RDD前n个元素(升序)

  • 返回前n个元素(降序)

 

  • 其实,可以top(n)算子来实现同样的效果,更简单

 

8、遍历算子 - foreach() 

8.1、功能

  • 计算 RDD中的每一个元素,但不返回本地(只是访问一遍数据),可以配合println打印数据。

 8.2、案例

  • 将RDD里的每个元素平方后输出(一定要采集,才能遍历)

  • 将RDD的内容逐行打印输出

 

9、存文件算子 - saveAsFile() 

9.1、功能

  • 将RDD数据保存到本地文件或HDFS文件

9.2、案例 

  • 将rdd内容保存到HDFS的/park/out目录

  • 查看另存的结果文件 

 

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值