RDD Operations
RDD支持两种操作类型:
转换,从现有数据集创建一个新的数据集。
动作:在数据集上进行计算,并对驱动程序返回一个值。
比如,map是一个转换,它对数据集中的每个元素执行一个函数,然后返回一个新的RDD代表执行结果。reduce是一个动作,它通过一些函数聚合RDD中的所有元素,然后对驱动程序返回最后的结果。(虽然也有一个并行的reduceByKey函数返回一个分布式数据集)
所有的转换操作在Spark中都是懒操作,这意味着转换并不立即计算结果。它仅仅是记录应用到数据集(比如文件)上的转换。当在需要在数据集上执行动作操作返回值给驱动程序时,转换操作才真正被计算。这种设计是为了使Spark运行起来更高效---------比如,我们意识到用map操作创建的数据集最终将被reduce操作使用并返回结果给驱动程序,而不需要保留中间的更大的map数据集。
默认情况下,当在每个转换RDD上执行动作操作时,RDD将会被重新计算。然而,你也许需要持久化RDD在内存中,可以通过执行persist(或者cache)方法。这样,Spark将在集群上保持RDD,这样就会加快下一次的访问速度。你也可以持久化RDD到磁盘上&#