Hive基本概念
由Facebook开源用于解决海量结构化日志的数据统计工具。
Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类SQL查询功能。
本质
将HQL转化为MapReduce程序。
与Hadoop的关系
- Hive处理的数据存储在HDFS
- Hive分析数据底层的实现是MapReduce
- 执行程序运行在Yarn上
优点
- 操作接口采用类 SQL 语法,提供快速开发的能力(简单、容易上手)。
- Hive 优势在于处理大数据,对于处理小数据没有优势,因为 Hive 的执行延迟比较
高。 - Hive 支持用户自定义函数,用户可以根据自己的需求来实现自己的函数。
缺点
- HQL 表达能力有限(迭代式算法无法表达,效率更高的算法无法实现)
- 效率比较低,调优比较困难
架构原理
图
Metastore
元数据包括:
- 表名、
- 表所属的数据库(默认是 default)、
- 表的拥有者、列/分区字段、
- 表的类型(是否是外部表)、
- 表的数据所在目录等;
默认存储在自带的 derby 数据库中,推荐使用 MySQL 存储 Metastore。
用户接口:Client
- CLI(command-line interface)
- JDBC/ODBC(jdbc 访问 hive)
- WEBUI(浏览器访问 hive)
Hadoop
使用 HDFS 进行存储,使用 MapReduce 进行计算。
驱动器:Driver
- 解析器(SQL Parser):将 SQL 字符串转换成抽象语法树 AST,这一步一般都用第三方工具库完成,比如 antlr;对AST 进行语法分析,比如表是否存在、字段是否存在、SQL语义是否有误。
- 编译器(Physical Plan):将 AST 编译生成逻辑执行计划。
- 优化器(Query Optimizer):对逻辑执行计划进行优化。
- 执行器(Execution):把逻辑执行计划转换成可以运行的物理计划。对于 Hive 来说,就是 MR/Spark。
运行机制
Hive 通过给用户提供的一系列交互接口,接收到用户的指令(SQL),使用自己的 Driver,结合元数据(MetaStore),将这些指令翻译成 MapReduce,提交到 Hadoop 中执行,最后,将执行返回的结果输出到用户交互接口。
Hive和数据库比较
数据更新
由于 Hive 是针对数据仓库应用设计的,而数据仓库的内容是读多写少的。
因此,Hive 中不建议对数据的改写,所有的数据都是在加载的时候确定好的。
而数据库中的数据通常是需要经常进行修改的
执行延迟
Hive 在查询数据的时候,由于没有索引,需要扫描整个表,因此延迟较高。
另外一个导致 Hive 执行延迟高的因素是 MapReduce 框架。由于 MapReduce 本身具有较高的延迟,因此在利用 MapReduce 执行 Hive 查询时,也会有较高的延迟。
数据库的执行延迟较低,但这个低是有条件的,即数据规模较小,当数据规模大到超过数据库的处理能力的时候,Hive 的并行计算显然能体现出优势。
数据规模
由于 Hive 建立在集群上并可以利用MapReduce 进行并行计算,因此可以支持很大规模的数据;对应的,数据库可以支持的数据规模较小。