2017.06.15--spark中cache和persist的区别
cache和persist都是用于将一个RDD进行缓存的,这样在之后使用的过程中就不需要重新计算了,可以大大节省程序运行时间。
cache和persist的区别
基于Spark 1.4.1 的源码,可以看到
/** Persist this RDD with the default storage level (`MEMORY_ONLY`). */
def cache():
转载
2017-06-15 19:19:43 ·
329 阅读 ·
0 评论