RDD 编程
一、概述
RDD是resilient distributed dataset的缩写。创建RDD有两种方法:一种是parallize驱动程序中存在的集合;另一种是引用外部存储系统中的数据集来创建。外部数据源象共享文件系统,HDFS,HBase,或者任何提供Hadoop InputFormat的数据源。
1、 Parallelized Collections(并行化集合)
并行化集合的创建是通过调用SparkContext的parallelize方法作用于已经存在的collection(在驱动程序中)。集合中的元素被复制,使其成为一个分布式数据集,该分布式集可以被并行操作。
Scala版本:
val data = Array(1, 2, 3, 4, 5)
val distData = sc.parallelize(data)
Java版本:
List<Integer> data = Arrays.asList(1, 2, 3, 4, 5);
JavaRDD<Integer> distData = sc.parallelize(data);
Python 版本:
data = [1, 2, 3, 4, 5]
distData = sc.parallelize(data)
分布式集合一旦创建,它就可以被并行操作。例如,我们可以distData.reduce((a,b)=>a+b)计算数组的各。一个对于并行集合十分重要的参数是将数据集切分成的分区的数量。Spark将为集群中每个分区(Partition)运行一个task。特别提一下,一般在集群中每一个CPU配2~4个分区。一般而言,Spark会尝试着基于集群自动设置分区的数量。尽管如此,也可以手工设置parallize方法的第二个参数,例如sc.parallelize(data,10)。注意:有些地方使用slice这个词以保持向后兼容
。
2、External Datasets(外部数据集)
Spark 可以从任何支持Hadoop文件系统的数据源创建分布式数据集,这些数据源(文件系统)包括本地文件系统,HDFS,Cassandra,HBase,Amazon S3等等。Spark支持文本文件,序列化文件和任何其它Hadoop支持的输出格式。
SparkContext通过textFile方法创建文本类型RDDs。该方法里面的参数是文件的路径,它从文件中读取的以行的集合的形式的数据。
以下是关于Spark读取文件应该注意的一些Notes: