hive工作流程

        HQL 通过 CLI、JDBC 客户端、HWI 接口提交,通过 Compiler 编译并运用 Metastore中的数据进行类型检测和语法分析,进而得到执行计划,产生以有向无环图(DirectedAcyclic Graph,DAG)描述的一系列MapReduce 作业;DAG描述了作业之间的依赖关系,执行引擎按照作业的依赖关系将作业提交至 Hadoop 执行。Hive 的具体工作流程如图1.3 所示。
        Hive 工作流程中各步骤的详细描述如表所示。

hive适用场景

1. 适用场景
> Hive 适用于非结构化数据的离线分析统计场合。
> Hive 的执行延迟比较高,因此适用于对实时性要求不高的场合。
> Hive 的优势在于处理大数据,因此适用于大数据(而非小数据)处理的场合。
2. 场景技术特点
> 为超大数据集设计了计算与扩展功能。
>支持 SQL like 查询语言。
>支持多表的join 操作。
>支持非结构化数据的查询与计算。
>提供数据存取的编程接口,支持JDBC、ODBC。

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值