# 序言
- - spark1.6之后引入DataSet,一种基于RDD的高级抽象,在RDD之上加入了scheme信息,给RDD的元素的每一列提供了名称和数据类型的标志。
- - 同时DataSet还提供了更多的api,可以实现类似于sql的操作,而且在catalyst优化器的优化下我们的代码将更加高效。
- - 其实sql最最厉害的就是将逻辑和物理执行分开,上层专注于让程序员更好的表达数据的处理逻辑,下层专注于把逻辑执行的更高效。而DataSet就是这上层用于表达数据处理逻辑的API的封装。
## 一些术语约定(下文中有不理解再来看)
- 逻辑计划:LogicalPlan --指生成的逻辑树
- 物理计划:这里指SparkPlan --对接了rdd,可以直接执行,也是用树表示的。
- 解析:parse --指对sql进行解析生成逻辑计划
- 分析:analyze --指对逻辑计划进行分析
# 整体执行流程
整体执行流程图
大概经过下面这几个阶段:
- 逻辑计划生成:
1. spark.sql() 这种方式的话会涉及到sql的解析,解析之后就会生成逻辑计划
2. 如果是直接在DataFrame的api上直接操作的话,使用的api将直接生成逻辑计划
- 分析:生成的逻辑计划将会通过解析器结合元数据信息&#x