RDD简介和创建RDD

1、简介

1.1 概念

RDD是将数据拆分为多个分区的集合,存储在集群的工作节点上的内存或磁盘中。

RDD是弹性分布式数据集(Resilient Distributed Datasets)

1、分布式(Distributed)

  • 数据的计算并非只局限于单个节点,而是多个节点之间协同计算得到的。

2、数据集(Datasets)

  • RDD是只读的、分区记录的集合,每个分区分布在集群的不同节点上。
  • RDD并不存储真正的数据,只是对数据和操作的描述。

3、弹性(Resilient)

  • RDD的数据默认情况下存放在内存中,但是在内存资源不足时,Spark会自动将RDD数据写入磁盘。
  • 基于Linage的高效容错机制,在任何时候都能进行重算,根据数据血统,可以自动从节点失败中恢复分区,各个分片之间的数据互不影响。
  • Stage失败自动重试/Task失败自动重试。
  • Checkpoint和Persist,checkpoint持久化到文件系统。

1.2 特性

  • 一系列的分区(分片)信息,每个任务处理一个分区
  • 每个分区上都有compute函数,计算该分区中的数据
  • RDD之间有一系列的依赖
  • 分区函数决定数据(key-value)分配至哪个分区
  • 最佳位置列表,将计算任务分派到其所在处理数据块的存储位置

1.3 RDD编程流程

RDD创建–>RDD转换–>RDD持久化–>RDD执行

2、创建RDD

进行Spark核心编程的第一步就是创建一个初始的RDD。该RDD,通常就代表和包含了Spark应用程序的输入源数据。然后通过Spark Core提供的transformation算子,对该RDD进行转换,来获取其他的RDD。

Spark Core提供了三种创建RDD的方式:

2.1 使用内存集合创建RDD(测试环境)

//scala--IDEA中		可以使用parallelize和makeRDD创建
val conf:SparkConf=new SparkConf().setMaster("local[2]").setAppName("wordcount")
val sc:SparkContext=SparkContext.getOrCreate(conf)
val rdd1:RDD[String
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值