spark的常识整理(二)====RDD

前言:今天我接着上一篇RDD创建之后的内容继续来说,与各位博友共勉!

RDD的算子

RDD算子有两种
1、transformation算子(懒惰性算子,不会立即执行,一般不触发job的算子都是此类算子)

比如map,filter, flatmap , groupByKey ,reduceByKey, join(left right) ,cogroup, sortByKey等;
其中sortByKey是一个比较特殊的,他虽然触发了job任务,当官网依然把他定义为transformation算子。

2、Action算子(立即执行)(一般为触发了job的算子)

比如reduce,collect,take,countByKey, saveAsTextFile() ,foreach , collectAsMap , top() ,fold()(), distinct等。
使用collect应注意:collect是将RDD类型数据转化成数组,同时将远程集群数据全部拉取到Driver端,数据量过大时容易造成oom的结果。
其实也有一个偏门方法得出算子属于哪类算子:
在程序里算子执行后的返回值可以直接打印看到结果的是Action算子,否则依然是transformation算子。

另外还有几种算子:

Mappartitions算子:类似map,但不同的是map每次只处理一行数据,而Mappartition算子,一次处理一个分区的数据;
这个算子一般用在数据量不是特别大,可以用Mappartition代替map来处理数据,可以提高效率,否则数据量过大,可能会出现oom(内存溢出)的现象。
coalesce算子:这个算子是用来改变分区数量的的,它默认不发生shuffle过程,如果是减少分区,它是把分区数据整体拉取在一块,是不发生shuffle的,但是如果要想增加分区,需要修改参数false为true,而且此时发生了shuffle。
repartition算子:也是一个改变分区的算子,它与coalesce不同的是,它默认发生shuffle的,底层实现的是coalesce的true状态。

接下来说一下RDD算子内的一些小知识
持久化

1、cache:底层调用persist,并且只有一种缓存级别(MEMORY_ONLY)
2、persist:它的缓存级别有12种,默认也是内存(MEMORY_ONLY)

检查点(checkpoint)

如果我们运行的saprk程序十分复杂,从RDD初始化开始到程序结束,需要很长的时间,此时适合使用checkpoint
但是我们在进行checkpoint时需要存储和读取数据,会产生io消耗,所以一般只用来保存特别重要的数据,并且和cache联合使用,而他的数据一般会保存在可靠的文件系统中,如HDFS。当然也可以保存在磁盘上。

共享变量

Broadcast:广播变量 ==> 只读,不可变
使用情景:算子内部使用了算子外部的变量,此时每个Task中都会跨节点去copy外部变量,此时用广播变量,可将外部变量广播到对应worker节点上,此节点下的Task可共享同一个变量,可以节省时间,提升效率,不需要跨节点拉取数据。

累加器
基本理解:

多个节点对一个变量进行操作,也就是多个Task对一个累加器的操作,可以进行不同节点的Task数值累加操作。

特点:

1)累加器在全局唯一的,只增不减,记录全局集群的唯一状态
2)在exe中修改它,在driver读取
3)executor级别共享的,广播变量是task级别的共享
两个application不可以共享累加器,但是同一个app不同的job可以共享

宽窄依赖
宽依赖

多个子RDD的partition数据依赖于同一个父RDD的partition数据,此时会有交互现象
比如:一个父亲多个孩子

窄依赖:

一个父RDD的partition数据只被一个子RDD的分区使用
比如一个父亲只有一个孩子

发生宽窄依赖的条件:

当发生shuffle的时候会产生宽窄依赖划分,但是有个特殊的形式,如果当在join操作之前进行分组,那么分组后的数据可能是窄依赖。

关于shuffle的问题我将在下一篇文章中继续讲述
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
好的,我会给你解答关于Spark RDD实现次排序的问题。 首先,对于次排序(Secondary Sort),我们需要根据两个维度来对数据进行排序,比如要按照学生的学号(第一维)和成绩(第维)进行排序。在Spark中,可以使用sortByKey函数对数据进行排序,但默认只能按照一个维度排序。 为了实现次排序,我们需要借助Scala的Tuple(元组)类型,将学生的学号和成绩组成一个元组,作为RDD中的元素。然后,我们可以通过对元组进行比较,实现次排序的效果。 下面是一个Scala实现次排序的示例代码: ```scala // 生成包含元组的RDD val data = sc.parallelize(Seq( (1, 85), (2, 92), (3, 76), (1, 90), (2, 88), (3, 80) )) // 按照第一维升序、第维降序排序 val sortedData = data .sortByKey() // 按照第一维升序排序 .map(_.swap) // 交换元组的顺序,变成(成绩, 学号) .sortByKey(false) // 按照第维降序排序 .map(_.swap) // 再次交换元组的顺序,变成(学号, 成绩) // 输出排序结果 sortedData.foreach(println) ``` 在以上示例代码中,我们首先生成一个包含元组的RDD,其中第一维为学号,第维为成绩。然后,我们先按照第一维升序排序,再交换元组的顺序,变成(成绩, 学号),再按照第维降序排序,最后再次交换元组的顺序,得到最终的排序结果。 这就是Spark RDD实现次排序的基本方法,希望能对你有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值