spark中的transformation是lazy特性的,比如我们的wordCount操作,在促发action(foreach)操作前,我们前边的算子是不会实际操作执行的,整个这一块,都是在Driver节点上执行,也就是执行我们自己编写的spark应用程序,但是呢,在action执行之前,所有的transformation都是lazy的,不会立即执行,只有执行的action后,才会促发job,提交task到spark集群上,进行实际的操作
当执行action操作的时候,Driver会提交大量的task到之前注册过来的Worker上的executor上去执行
第一次算子操作后,其实这个算子的rdd会被废弃掉,数据也会被新的数据所填充