spark学习-rdd算子_rdd 18

14.union:求两个RDD数据的并集

15.subtract:去除两个RDD的数据的重复部分,保留其他数据

16.zip

key-value类型

17.partitionBy

18.reduceByKey:按照相同的key对value进行聚合

19.groupByKey:将数据源的数据根据 key 对 value 进行分组

20.aggregateByKey:将数据根据不同的规则进行分区内计算和分区间计算

21.foldByKey:当aggregateByKey分区内和分区间操作相同时就是foldByKey

22.combineByKey:有3个参数,第一个参数表示value的格式,第二个参数表示相同key的value在分区内进行的操作,第三个参数表示相同key的value在分区间进行的操作

23.sortByKey:按照key对数据进行升序或者降序

24.join

25.leftOuterJoin:左外连接

26.cogroup

行动算子

1.reduce:先聚合分区内,再聚合分区间

2.collect:以数组形式返回RDD内的数据

3.count:返回RDD内的元素个数

4.first:返回RDD内的第一个元素

5.take:返回一个由前n个元素组成的数组

6.takeOrdered:返回RDD排序后的前n个元素

8.countByKey:统计每种key的个数


RDD是什么?

RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是 Spark 中最基本的数据处理模型,主要依靠算子相当于rdd的方法。

创建RDD的方法

1.从集合或者列表中获取数据创建算子,使用makeRDD()方法

 val rdd: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4));

2.从文件中获取数据创建RDD,使用textFile()方法

val rdd: RDD[String] = sparkContext.textFile("datas/1.txt");

Value类型的算子

1.map-把RDD内的数据逐条进行转换,可以是值的转换也可以是类型的转换
    //    从集合中获取数据
    val rdd: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4))
    //    使用map对数据进行转换,每个数据扩大2倍
    val rddmap: RDD[Int] = rdd.map(
      num => {
        num * 2
      }
    )
2.mapPartitions-把RDD内的数据以分区为单位放入可迭代对象,并且将处理后的数据也放入迭代对象中返回
    
    //    1.从集合中获取数据
    val rdd: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4),2)
    //    使用mapPartitions获取每个分区的最大值 mapPartitions内的匿名函数必须输入一个迭代器,返回一个迭代器
    val rddMapPartitions: RDD[Int] = rdd.mapPartitions(
      iter => {
        List(iter.max).iterator
      }
    )
3.mapPartitionsWithIndex:

函数定义:

def mapPartitionsWithIndex[U: ClassTag](
 f: (Int, Iterator[T]) => Iterator[U],
 preservesPartitioning: Boolean = false): RDD[U]

把数据以分区为单位进行处理,同时也能够获取分区索引,分区索引通常是从0开始

    //    1.从集合中获取数据
    val rdd: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4), 2)
    //    使用mapPartitionsWithIndex,获取第二个分区的数据
    val mpiRdd: RDD[Int] = rdd.mapPartitionsWithIndex(
      (index, datas) => {
        if (index == 1)
          {
            datas
          }
         else{
          Nil.toIterator
        }
      }
    )
4.flatMap:扁平化处理数据,我认为就是把rdd中可以迭代的数据类型中的数据或者可以再次切分的字符串切割后都放到同一个可迭代对象中。
    //    1.从集合中获取数据
    val rdd = sparkContext.makeRDD(List(List(1,2),List(3,4)))
//rdd内的数据类型要相同,否则的话会报错
val flatrdd: RDD[Int] = rdd.flatMap(
  line => {
    line
  }
)

如果list内包含不同数据类型**,还需要使用模式匹配,变成相同的数据类型后再处理**

    //    1.从集合中有List类型,又有整数类型
    val rdd = sparkContext.makeRDD(List(List(1,2),3,List(3,4)))
// flatmap对数据进行扁平化操作
val flatrdd: RDD[Any] = rdd.flatMap(
  data => {
    data match {
      case list: List[_] => list
      case dat => List(dat)
    }
  }
)
5.glom:把同一个分区的数据放到同一个数组内
    //    1.从集合中获取数据
    val rdd: RDD[Any] = sparkContext.makeRDD(List((1,2), "2", 3, 4), 2)
    //    使用glom把个体合并成整体,同一个分区的数据放到同一个数组内
   val glomrdd: RDD[Array[Any]] = rdd.glom()
    //    输出 如果直接println输出的是数组内的数组,而不是其中的数据
    glomrdd.collect().foreach(s=>{
      s.foreach(println)
    })
    println("========0号分区数据=========")
   println(glomrdd.collect()(0).mkString(","))
    println("========1号分区数据=========")
    println(glomrdd.collect()(1).mkString(","))
6.groupBy:把数据根据指定的规则进行分组

可以根据单词的首字母进行分组,返回数据的类型是:元组,元组内是分组依据和可迭代对象:(key,可迭代对象)

    //    1.从集合中获取数据
    val rdd = sparkContext.makeRDD(List("hello","world","spark","honest"))
//2.使用groupby把首字母相同的放入同一个分组中
val groupbyrdd: RDD[(Char, Iterable[String])] = rdd.groupBy(
  num => {
    num.charAt(0)
  }
)
7.filter()根据指定规则过滤出数据

过滤出list内的奇数

    //    1.从集合中获取数据
    val rdd: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4))
    val filterrdd: RDD[Int] = rdd.filter(
      nums => nums % 2 != 0
    )
8.sample:根据指定的规则从数据集中抽取数据

第一个参数boolean表示是否抽取元素是否放回,如果放回表示一个元素可能重复出现

第二个参数表示每个元素被抽取到的概率,范围是[ 0,1]

第三个参数表示随机种子数,输入一个正整数

实现原理:根据种子和随机算法算出一个数和第二个参数设置几率比较,小于第二个参数要,大于第二个参数则不要

    //    1.从集合中获取数据
    val rdd: RDD[Int] = sparkContext.makeRDD(List(1, 2, 3, 4))
    val samplerdd: RDD[Int] = rdd.sample(
      false, 0.5
    )
9.distinct:去除数据集中重复的元素,可以指定新生成的RDD的分区数
val distinctRDD = originalRDD.distinct([numPartitions])

numPartitions用于指定分区数

10.coalesce:用于合并分区减少分区的数量
val conf = new SparkConf().setAppName("CoalesceExample").setMaster("local")
val sc = new SparkContext(conf)

val data = sc.parallelize(1 to 10, 5) // 创建5个分区的RDD
val coalescedData = data.coalesce(2) // 合并成两个分区
11.repartition:可以增加或者减少分区数量
def repartition(numPartitions: Int)(implicit ord: Ordering[T] = null): RDD[T]
12.sortBy用于排序数据
val sortedRDD = originalRDD.sortBy(func, ascending = true, numPartitions)

// func用于指定排序的依据
//ascending如果指定为true的话就是升序,false是降序
//numPartitions用来指定排序后的RDD数量,不写的话默认是原有RDD的分区数

双value类型

13.intersection:求两个RDD的数据交集
val dataRDD1 = sparkContext.makeRDD(List(1,2,3,4))
val dataRDD2 = sparkContext.makeRDD(List(3,4,5,6))
val dataRDD = dataRDD1.intersection(dataRDD2)

14.union:求两个RDD数据的并集
val dataRDD1 = sparkContext.makeRDD(List(1,2,3,4))
val dataRDD2 = sparkContext.makeRDD(List(3,4,5,6))
val dataRDD = dataRDD1.union(dataRDD2)

15.subtract:去除两个RDD的数据的重复部分,保留其他数据
val dataRDD1 = sparkContext.makeRDD(List(1,2,3,4))
val dataRDD2 = sparkContext.makeRDD(List(3,4,5,6))
val dataRDD = dataRDD1.subtract(dataRDD2)
16.zip

将两个 RDD 中的元素,以键值对的形式进行合并。其中,键值对中的 Key 为第 1 个 RDD 中的元素,Value 为第 2 个 RDD 中的相同位置的元素。

val dataRDD1 = sparkContext.makeRDD(List(1,2,3,4))
val dataRDD2 = sparkContext.makeRDD(List(3,4,5,6))
val dataRDD = dataRDD1.zip(dataRDD2)

key-value类型

17.partitionBy

将数据按照指定 Partitioner 重新进行分区。Spark 默认的分区器是 HashPartitioner(分区数量)

    val rdd = sparkContext.makeRDD(List((1,1),(2,1),(3,1),(4,1)),2)
rdd.partitionBy(new HashPartitioner(2))

HashPartitioner是根据key的哈希码与分区数进行取余,根据取余的结果来对数据进行分区。

返回数据类型是一个元组.

18.reduceByKey:按照相同的key对value进行聚合
def reduceByKey(func: (V, V) => V, numPartitions: Int): RDD[(K, V)]

可以指定聚合后的分区数量,默认是原RDD的分区数,返回值类型是元组

19.groupByKey:将数据源的数据根据 key 对 value 进行分组

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

认是原RDD的分区数,返回值类型是元组

19.groupByKey:将数据源的数据根据 key 对 value 进行分组

[外链图片转存中…(img-qc5LIdgR-1714423112800)]
[外链图片转存中…(img-KUzWS6lP-1714423112800)]
[外链图片转存中…(img-Nyo7OW4C-1714423112800)]

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

  • 7
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值