一 RDDs的血统关系图
Spark维护着RDDs之间的依赖关系和创建关系,叫做血统关系图。
Spark使用血统关系图来计算每个RDD的需求和恢复丢失的数据。
二 延迟计算(Lazy Evaluation)
Spark对RDDs的计算是,他们第一次使用action操作的时候
这种方式在处理大数据的时候特别有用,可以减少数据的传输
Spark内部记录metadata表名transformations操作已经被响应了
加载数据也是延迟计算,数据只有在必要的时候,才会被加载进去。
三 RDD.persist()
默认每次在RDDs上面进行action操作时,Spark都重新计算RDDs
如果想重复利用一个RDD,可以使用RDD.persist()
unpersist()方法从缓存中移除