HQL 转换为 MR 任务流程介绍

执行顺序

1.进入程序,利用Antlr框架定义HQL的语法规则,对HQL完成词法语法解析,将HQL转换为为AST(抽象语法树);
2.遍历AST,抽象出查询的基本组成单元QueryBlock(查询块),可以理解为最小的查询执行单元;
3.遍历QueryBlock,将其转换为OperatorTree(操作树,也就是逻辑执行计划),可以理解为不可拆分的一个逻辑执行单元;
4.使用逻辑优化器对OperatorTree(操作树)进行逻辑优化。例如合并不必要的ReduceSinkOperator,减少Shuffle数据量;
5.遍历OperatorTree,转换为TaskTree。也就是翻译为MR任务的流程,将逻辑执行计划转换为物理执行计划;
6.使用物理优化器对TaskTree进行物理优化;
7.生成最终的执行计划,提交任务到Hadoop集群运行。

Hive是一个基于Hadoop的数据仓库工具,它使用HiveQL(HQL)作为查询语言,将HQL语句转换为MapReduce任务来执行。下面是HiveHQL转换为MapReduce的过程: 1. 解析HQL语句:Hive首先解析HQL语句,生成抽象语法树(AST)。 2. 生成逻辑执行计划:Hive根据AST生成逻辑执行计划(Logical Execution Plan),该计划描述了查询的逻辑执行流程,包括输入数据、输出数据、数据过滤、数据聚合等。 3. 生成物理执行计划:Hive根据逻辑执行计划生成物理执行计划(Physical Execution Plan),该计划描述了如何将逻辑执行计划转换为MapReduce任务,包括如何对数据进行切分、如何进行数据传输、如何进行数据聚合等。 4. 生成MapReduce任务Hive使用物理执行计划生成MapReduce任务,这些任务通过JobTracker调度在Hadoop集群中运行。MapReduce任务包括Map任务和Reduce任务,Map任务用于对输入数据进行处理和过滤,Reduce任务用于对Map任务的输出进行聚合。 5. 执行MapReduce任务:Hadoop集群开始执行MapReduce任务,Map任务从HDFS中读取输入数据,对数据进行处理和过滤,将结果写入HDFS中;Reduce任务从HDFS中读取Map任务的输出数据,进行聚合和统计,将结果写入HDFS中。 6. 返回查询结果:Hive从HDFS中读取MapReduce任务的输出结果,对结果进行格式化和排序,最终返回给用户。 总的来说,HiveHQL转换为MapReduce的过程包括解析HQL语句、生成逻辑执行计划、生成物理执行计划、生成MapReduce任务、执行MapReduce任务和返回查询结果。这个过程需要涉及到Hive的元数据管理、查询优化、任务调度等多个方面的技术。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值