RDD又叫弹性分布式数据集,是Spark数据的基础单元,Spark编程是围绕着在RDD上创建和执行操作来进行的。它们是跨集群进行分区的不可变集合(immutable collection),如果某个分区丢失,这些分区可以重建(重新计算)。它们是使用数据流运算符(map, filter, groupby)在稳定存储中通过对数据进行变换而创建的,并且可以在并行运算架构的内存中进行缓存。
弹性:如果内存中的数据丢失,它可以重新创建(或重新计算)
分布式:在集群中进行分布
数据集:初始数据可以来自文件或以编程方式创建