云计算-Spark部分复习(自用)

SPARK(有操作):
1. spark作业 
2. spark-RDD(必考编程:常用算子 map groupby key flatmap-单词统计、单词排序)
3. spark-sql(和hive相似,可能有捆绑,如何操作*考的不深,不一定编程  必须了解操作 判断选择题) 
4. spark-streaming(看包、做作业,题目有变换)

一、Spark的代码特点:简洁易懂

二、Spark与Hadoop的对比

三、Spark架构

Spark的基本组件有Excutor,SparkContext和Task

四、Spark的运行基本流程

五、Yarn-cluster和yarn-client

Yarn-cluster适用于生产环境, Yarn-client适用于交互和调试

六、RDD简介

七、RDD的特点

八、Stage的概念

RDD有两种依赖,分别为宽依赖(wide dependency/shuffle dependency)窄依赖(narrow dependency) 

这里借用一下CSDN中杨林伟博主的介绍

1.窄依赖:父RDD的一个分区只会被子RDD的一个分区依赖

2.宽依赖:父RDD的一个分区会被子RDD的多个分区依赖(涉及到Shuffle)

九、Spark的核心原理

1.用户代码(如rdd1.join...)转换为有向无环图(DAG)后,交给DAGScheduler

2.有DAGScheduler把RDD的有向无环图分割成各个Stage的有向无环图形成TaskSet,再提交给TaskScheduler

3.有TaskScheduler把任务(Task)提交给每个Worker上的Executor执行据以的Task

4.在TaskScheduler中,是不知道各个Stage的存在的,运行的只有Task

十、Stage的概念

十一、RDD的转换与操作(学生的平均成绩计算)

十一、Spark中文件的读取与存储

详细步骤如下

十二、编写SparkWordCount(单词计数程序)

十三、持久化

十四、Spark DataFrame基本操作

① DataFrame:DataFrame 是一种以 RDD 为基础的分布式数据集,类似于传统数据库的二维表格,带有 Schema 元信息(可以理解为数据库的列名和类型)。DataFrame = RDD + 泛型 + SQL 的操作 + 优化

② DataSet:DataSet是DataFrame的进一步发展,它比RDD保存了更多的描述信息,概念上等同于关系型数据库中的二维表,它保存了类型信息,是强类型的,提供了编译时类型检查。调用 Dataset 的方法先会生成逻辑计划,然后被 spark 的优化器进行优化,最终生成物理计划,然后提交到集群中运行!DataFrame = Dateset[Row]
 

  • DataFrame = RDD - 泛型 + Schema + SQL + 优化
  • DataSet = DataFrame + 泛型
  • DataSet = RDD + Schema + SQL + 优化

DataFrame是一种不可变的分布式数据集,被组织成指定的列,类似于关系数据库中的表

数据集的每一列都带有名称和类型,对于数据的内部结构又很强的描述性

RDD是分布式的Java对象的集合,DataDrame是分布式的Row对象的集合

十五、读取mysql数据库test的student表

十六、从Hive中的表创建DataFrame

十七、保存DataFrame

  • 15
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值