10 Spark on RDD Cache

RDD 通过 Cache 或者 Persist 方法将前面的计算结果缓存,默认情况下会把数据以缓存在 JVM 的堆内存中。但是并不是这两个方法被调用时立即缓存,而是触发后面的 action 算子时,该 RDD 将会被缓存在计算节点的内存中,并供后面重用,写两个列子参考下:

 

CASE01:直接,复用RDD不使用Cache函数

val list = List("Hello Scala", "Hello Spark", "Hello Python")

val rdd = sparkContext.makeRDD(list)

val mapRDD: RDD[(String, Int)] = rdd.flatMap(_.split(" ")).map(m => {
    println("..........")
    (m, 1)
})

val reduceByKeyRDD: RDD[(String, Int)] = mapRDD.reduceByKey(_ + _)

reduceByKeyRDD.collect().foreach(print);

val groupByKeyRDD: RDD[(String, Iterable[Int])] = mapRDD.groupByKey()

groupByKeyRDD.collect().foreach(print)

CASE01:输出结果

[Stage 0:> (0 + 0) / 8]..........
..........
..........
..........
..........
..........
(Hello,3)(Python,1)(Spark,1)(Scala,1)..........
..........
..........
..........
..........
..........
(Hello,CompactBuffer(1, 1, 1))(Python,CompactBuffer(1))(Spark,CompactBuffer(1))(Scala,CompactBuffer(1))

通过,以上代码print观察,map算子被重复调用。按照JAVA语言理解,我们只是使用了mapRDD算子,map算子应当不会重新被调用。但是,在Spark中map算子被多次调用。原因是什么呢?是在Spark中RDD只保存了依赖关系、计算逻辑,得到的RDD是不存储数据的,从而导致,每一次调用都需要重新执行全部流程。那么我们加上Cache算子来看下:

val list = List("Hello Scala", "Hello Spark", "Hello Python")

val rdd = sparkContext.makeRDD(list)

val mapRDD: RDD[(String, Int)] = rdd.flatMap(_.split(" ")).map(m => {
  println("..........")
  (m, 1)
})

mapRDD.cache()

val reduceByKeyRDD: RDD[(String, Int)] = mapRDD.reduceByKey(_ + _)

reduceByKeyRDD.collect().foreach(print);

val groupByKeyRDD: RDD[(String, Iterable[Int])] = mapRDD.groupByKey()

groupByKeyRDD.collect().foreach(print)
[Stage 0:> (0 + 0) / 8]..........
..........
..........
..........
..........
..........
(Hello,3)(Python,1)(Spark,1)(Scala,1)(Hello,CompactBuffer(1, 1, 1))
(Python,CompactBuffer(1))(Spark,CompactBuffer(1))(Scala,CompactBuffer(1))

然后在血缘关系层面, Cache算子会增加血缘关系,不改变原有的血缘关系。

println(mapRDD.toDebugString)

最后,看下存储级别:

object StorageLevel {
val NONE = new StorageLevel(false, false, false, false)
val DISK_ONLY = new StorageLevel(true, false, false, false)
val DISK_ONLY_2 = new StorageLevel(true, false, false, false, 2)
val MEMORY_ONLY = new StorageLevel(false, true, false, true)
val MEMORY_ONLY_2 = new StorageLevel(false, true, false, true, 2)
val MEMORY_ONLY_SER = new StorageLevel(false, true, false, false)
val MEMORY_ONLY_SER_2 = new StorageLevel(false, true, false, false, 2)
val MEMORY_AND_DISK = new StorageLevel(true, true, false, true)
val MEMORY_AND_DISK_2 = new StorageLevel(true, true, false, true, 2)
val MEMORY_AND_DISK_SER = new StorageLevel(true, true, false, false)
val MEMORY_AND_DISK_SER_2 = new StorageLevel(true, true, false, false, 2)
val OFF_HEAP = new StorageLevel(true, true, true, false, 1)

缓存有可能丢失,或者存储于内存的数据由于内存不足而被删除,RDD 的缓存容错机制保证了即使缓存丢失也能保证计算的正确执行。通过基于 RDD 的一系列转换,丢失的数据会被重算,由于 RDD 的各个 Partition 是相对独立的,因此只需要计算丢失的部分即可,并不需要重算全部 Partition。Spark 会自动对一些 Shuffle 操作的中间数据做持久化操作(比如:reduceByKey)。这样做的目的是为了当一个节点 Shuffle 失败了避免重新计算整个输入。但是,在实际使用的时候,如果想重用数据,仍然建议调用 persist 或 cache。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值