【Spark】RDD缓存机制

1. RDD缓存机制是什么?

把RDD的数据缓存起来,其他job可以从缓存中获取RDD数据而无需重复加工。

2. 如何对RDD进行缓存?

有两种方式,分别调用RDD的两个方法:persistcache
注意:调用这两个方法后并不会立刻缓存,而是有action算子触发时才会缓存。

3. persist 和 cache有什么区别?

二者的区别在于缓存级别上:
persist有多种缓存方式,如缓存到内存,缓存到磁盘等。
cache只缓存到内存,且实际是调用了persist方法。
两种方法的源码及缓存RDD的缓存级别如下:
在这里插入图片描述
在这里插入图片描述

4. 何时需要缓存RDD?

有两种情况:

  1. RDD被后续多个job用到;
  2. RDD的计算过程复杂。

5. 如何清除RDD缓存?

有两种方式:

  1. 应用程序结束后,缓存自动清除;
  2. 调用unpersist方法,源码如下:
    在这里插入图片描述

–The End–

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark RDD(Resilient Distributed Datasets)是Spark计算框架的核心抽象概念之一。下面是RDD的一些特性: 1. 弹性:RDD是可恢复的,它可以在节点故障时自动进行恢复。如果某个分区的数据丢失了,Spark可以通过数据容错机制重新计算丢失的数据。 2. 分布式:RDD可以在整个集群上分布,并且可以在不同节点上并行计算。这使得Spark可以利用集群中的多个计算资源来加快计算速度。 3. 不可变性:RDD是不可变的,即它们的值不能被直接修改。每次对RDD的操作都会生成一个新的RDD,而原始RDD保持不变。这种不可变性有助于实现容错和并行计算。 4. 惰性计算:RDD上的转换操作是惰性执行的,即它们不会立即执行,而是在遇到一个动作操作(如collect、count)时触发执行。这样可以优化计算过程,减少不必要的中间结果生成。 5. 可持久化:RDD可以将数据持久化在内存中,以便在后续操作中重用。通过使用缓存机制Spark可以避免重复计算相同的RDD,从而提高计算效率。 6. 分区:RDD将数据划分为一系列的分区,每个分区都存储着数据的一个子集。分区是Spark并行计算的基本单元,可以在不同节点上进行并行处理。 7. 过程间依赖:RDD之间的转换操作可以形成有向无环图(DAG),其中每个节点都是RDD的转换操作,边表示RDD之间的依赖关系。Spark使用DAG来优化计算过程,并实现容错和恢复机制。 这些特性使得RDD成为Spark的核心抽象,为开发者提供了一个强大而灵活的数据处理模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值