Spark RDD的缓存(cache)问题:[实践出真知]

最近用spark时,对于RDD的处理和操作用的较多,也顺便学习了一下关于RDD缓存的知识,我们都明白RDD之间的依赖关系,父RDD和子RDD,子RDD在运行时的数据可以从父RDD计算后得到,当RDD的层级关系较为复杂,有多级关系的时候,我们可以使用缓存RDD的方式,来减少spark程序的计算量.

RDD的cache机制,有利有弊,先说我在项目中遇到的问题,在开发过程中,当子RDD有多个时,而且需要父RDD时,也就是宽依赖,需要对父RDD进行多次计算,这个过程需要消耗很多的资源,于是就把计算出来的父RDD进行cache,后面的计算便可以直接使用而减少了不必要的运算.

RDD的缓存机制,以及清除缓存机制,网上都有很多的资料,讲的也很明白,这里我提一点就是,在对spark做优化时,对于是否应该对RDD进行缓存时,这个需要看你的服务器的内存情况,因为缓存是需要占用内存或者硬盘资源的,当你的内存本就不够时,建议不要盲目的使RDD缓存,不然spark  的那些任务丢失,executor 失败,OOM等问题就容易出现,也是常见的spark优化问题,当然尽量避免这些问题的出现.

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值