RDD实现

解析器集成Scala解析器处理一般过程: 1 将用户输入每一行编译成一个类 2 将该类载入到JVM中 3 调用该类中的某个函数内存管理 1 未序列化Java对象存储在内存中 2 序列化的数据存于内存中 3 存于磁盘中 内存使用LRU(最近最少)回收算法管理RDD编程接口1 RDD分区(Partitions) 2 RDD首选位置(PreferredLocat
摘要由CSDN通过智能技术生成
解析器集成

Scala解析器处理一般过程:

1 将用户输入每一行编译成一个类
2 将该类载入到JVM中
3 调用该类中的某个函数

内存管理

1 未序列化Java对象存储在内存中
2 序列化的数据存于内存中
3 存于磁盘中
内存使用LRU(最近最少)回收算法管理

RDD编程接口

1 RDD分区(Partitions)
2 RDD首选位置(PreferredLocations):离数据最近的位置
3 RDD依赖关系(Dependencies):窄依赖和宽依赖
  >窄依赖:每个父类RDD的分区都至多被一个子RDD的分区使用
  >宽依赖:多个子RDD的分区依赖同一个父RDD的分区
这里写图片描述
4 RDD分区计算(Iterator)
5 RDD分区函数(Partitioner)
  >哈希分区划分器(HashPartitioner)
  >范围分区划分器(RangePartitioner)
  且Partitioner只存在键值对RDD中,非键值对RDD其partitioner值为None

创建操作

1.并行化集合创建操作
parallelize、makeRDD—-后者可以指定每一个分区的首选位置
2.外部存储创建操作
textFile、wholeTextFiles、SequenceFile(针对Hadoop存储二进制形式的键值对)、hadoopFile、newAPIHadoopFile

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我会给你解答关于Spark RDD实现二次排序的问题。 首先,对于二次排序(Secondary Sort),我们需要根据两个维度来对数据进行排序,比如要按照学生的学号(第一维)和成绩(第二维)进行排序。在Spark中,可以使用sortByKey函数对数据进行排序,但默认只能按照一个维度排序。 为了实现二次排序,我们需要借助Scala的Tuple(元组)类型,将学生的学号和成绩组成一个二元组,作为RDD中的元素。然后,我们可以通过对元组进行比较,实现二次排序的效果。 下面是一个Scala实现二次排序的示例代码: ```scala // 生成包含二元组的RDD val data = sc.parallelize(Seq( (1, 85), (2, 92), (3, 76), (1, 90), (2, 88), (3, 80) )) // 按照第一维升序、第二维降序排序 val sortedData = data .sortByKey() // 按照第一维升序排序 .map(_.swap) // 交换元组的顺序,变成(成绩, 学号) .sortByKey(false) // 按照第二维降序排序 .map(_.swap) // 再次交换元组的顺序,变成(学号, 成绩) // 输出排序结果 sortedData.foreach(println) ``` 在以上示例代码中,我们首先生成一个包含二元组的RDD,其中第一维为学号,第二维为成绩。然后,我们先按照第一维升序排序,再交换元组的顺序,变成(成绩, 学号),再按照第二维降序排序,最后再次交换元组的顺序,得到最终的排序结果。 这就是Spark RDD实现二次排序的基本方法,希望能对你有所帮助。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值