Spark RDD算子创建

Spark RDD是什么

​     Spark提供了一种对数据的核心抽象,称为弹性分布式数据集(Resilient Distributed Dataset,简称RDD)。这个数据集的全部或部分可以缓存在内存中,并且可以在多次计算时重用。RDD其实就是一个分布在多个节点上的数据集合。

​       RDD的弹性主要是指:当内存不够时,数据可以持久化到磁盘,并且RDD具有高效的容错能力。

​       分布式数据集是指:一个数据集存储在不同的节点上,每个节点存储数据集的一部分。

​       例如,将数据集(hello,world,scala,spark,love,spark,happy)存储在三个节点上,节点一存储(hello,world),节点二存储(scala,spark,love),节点三存储(spark,happy),这样对三个节点的数据可以并行计算,并且三个节点的数据共同组成了一个RDD。

​      分布式数据集类似于HDFS中的文件分块,不同的块存储在不同的节点上;而并行计算类似于使用MapReduce读取HDFS中的数据并进行Map和Reduce操作。Spark则包含这两种功能,并且计算更加灵活。

​      在编程时,可以把RDD看作是一个数据操作的基本单位,而不必关心数据的分布式特性,Spark会自动将RDD的数据分发到集群的各个节点。Spark中对数据的操作主要是对RDD的操作(创建、转化、求值)。

#### RDD的主要特征(面试常问)

- RDD是不可变的,但可以将RDD转换成新的RDD进行操作,但是原来的RDD没有变化。

- RDD是可分区的。RDD由很多分区组成,每个分区对应一个Task任务来执行。

- 对RDD进行操作,相当于对RDD的每个分区进行操作。

- RDD拥有一系列对分区进行计算的函数,称为算子。

- RDD之间存在依赖关系,可以实现管道化,避免了中间数据的存储。

RDD的创建

​        RDD中的数据来源可以是程序中的对象集合,也可以是外部存储系统中的数据集,例如共享文件系统、HDFS、HBase或任何提供Hadoop InputFormat的数据源。

从对象集合创建RDD

Spark可以通过parallelize()或makeRDD()方法将一个对象集合转化为RDD。

例如,将一个List集合转化为RDD,代码如下:

```

val rdd=sc.parallelize(List(1,2,3,4,5,6))

```

或者

```

val rdd=sc.makeRDD(List(1,2,3,4,5,6))

```

从返回信息可以看出,上述创建的RDD中存储的是Int类型的数据。实际上,RDD也是一个集合,与常用的List集合不同的是,RDD集合的数据分布于多台机器上。



 

#### 从外部存储创建RDD

Spark的textFile()方法可以读取本地文件系统或外部其他系统中的数据,并创建RDD。不同的是,数据的来源路径不同。

- 读取本地系统文件

```

# 将读取的本地文件内容转为一个RDD

val rdd = sc.textFile("file:///root/data/words.txt")

# 使用collect()方法查看RDD中的内容

rdd.collect()  # 或者使用rdd.collect

```

注:collect()方法是RDD的一个行动算子

- 读取HDFS系统文件

```

# 将读取的HDFS系统文件内容转为一个RDD

val rdd = sc.textFile("hdfs://192.168.121.131:9000/words.txt")

# 使用collect()方法查看RDD中的内容

rdd.collect()  # 或者使用rdd.collect

```


 

  • 5
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值