RDD 和 spark执行原理

1. RDD

概念
RDD(Resilient Distributed Dateset),弹性分布式数据集。

RDD的五大特性:

  1. RDD是由一系列的partition组成的。
  2. 函数是作用在每一个partition(split)上的。
  3. RDD之间有一系列的依赖关系。
  4. 分区器是作用在K,V格式的RDD上。RDD提供一系列最佳的计算位置。
  5. RDD提供一系列的最佳计算模式。

RDD理解图:
在这里插入图片描述
注意:

  1. textFile方法底层封装的是读取MR读取文件的方式,读取文件之前先split,默认split大小是一个block大小。
  2. RDD实际上不存储数据,这里方便理解,暂时理解为存储数据。
  3. 什么是K,V格式的RDD?
    • 如果RDD里面存储的数据都是二元组对象,那么这个RDD我们就叫做K,V格式的RDD。
  4. 哪里体现RDD的弹性(容错)?
    • partition数量,大小没有限制,体现了RDD的弹性。
    • RDD之间依赖关系,可以基于上一个RDD重新计算出RDD。
  5. 哪里体现RDD的分布式?
    • RDD是由Partition组成,partition是分布在不同节点上的。
  6. RDD提供计算最佳位置,体现了数据本地化。体现了大数据中“计算移动数据不移动”的理念。

2. Spark任务执行原理

在这里插入图片描述
以上图中有四个机器节点,Driver和Worker是启动在节点上的进程,运行在JVM中的进程。
7. Driver与集群节点之间有频繁的通信。
8. Driver负责任务(tasks)的分发和结果的回收。任务的调度。如果task的计算结果非常大就不要回收了。会造成oom。
9. Worker是Standalone资源调度框架里面资源管理的从节点。也是JVM进程。
10. Master是Standalone资源调度框架里面资源管理的主节点。也是JVM进程。

3. Spark代码流程

  1. 创建SparkConf对象

    • 可以设置Application name。
    • 可以设置运行模式及资源需求。
  2. 创建SparkContext对象

  3. 基于Spark的上下文创建一个RDD,对RDD进行处理。

  4. 应用程序中要有Action类算子来触发Transformation类算子执行。

  5. 关闭Spark上下文对象SparkContext。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值