需求:根据datalog解析出各个表、列名、以及根据表的join次数评选出热点表排名
实现解析:spark sql 的catalyst优化器
过程解析:sparksql的执行经历了以下几个阶段
1.parse(解析):简单的说就是将字符串分成一个个token,解析成语法树
2.analyzer(分析者):将语法树转换成逻辑执行计划,Analyzer遍历整个语法树,对树上的节点进行数据类型和函数绑定比如将scheme(列名、数据类型和基本函数信息[sum]进行绑定)
3.optimize(优化器):优化逻辑执行计划常见的三种规则
谓词下推(Predicate Pushdown):即将过滤操作推到join进行之前、
常量累加(Constant Folding): x+(1+2) -> x+3
和列值裁剪(Column Pruning):对于表来说,不需要扫描所有的列值,只需要扫描所需列,对其他列进行裁剪
4.physical planning(物理执行计划):挑选一个耗时最小的算法实现