写的不到位的地方,欢迎评论指出不足之处
- 产生
- 方便对文件及数据的元数据进行管理,提供统一的元数据管理方式
- 提供更加简单的方式来访问大规模的数据集,使用SQL语言进行数据分析
- 非 JAVA 编程者对 HDFS 的数据做 mapreduce 的操作
- 简介
- 经常被大数据企业用作企业级数据仓库
- 在使用过程中是使用SQL语句来进行数据分析,由SQL语句到具体的任务执行还需要经过解释器,编译器,优化器,执行器四部分才能完成
- 解释器、编译器、优化器、执行器
- 解释器
- 调用语法解释器和语义分析器将SQL语句转换成对应的可执行的 java代码 或者 业务代码
- 编译器
- 将对应的 java代码 转换成 字节码文件 或者 jar包
- 优化器
- 从SQL语句到 java代码 的解析转化过程中需要调用优化器,进行相关策略的优化,实现最优的 查询性能
- 执行器
- 当业务代码转换完成之后,需要上传到 MapReduce 的集群中执行
- 附
- 完成 HQL 査询语句从词法分析、语法分析、编译、优化以及查询计划的生成
- 生成的查询计划存储在 HDFS 中,并在随后有 MapReduce 调用执行
- 解释器
- 数据仓库
- 面向业务:查询数据时,相对数据库的速度可以慢,但还是越快越好
- 可以收纳多种数据源(不同的数据库)
- 数据不可修改
- 用户接口主要有三个:CLI、Client、WUI
- 其中最常用的是 cli
- cli 启动的时候,会同时启动一个 Hive 副本
- Client 是 Hive 的客户端
- 用户连接至 Hive Server,在启动 Client 模式的时候,需要指出 Hive Server所在节点,并且在该节点启动 Hive server
- WUI 是通过浏览器访问 Hive
- 其中最常用的是 cli
- Hive 将元数据存储在数据库中:如 mysql、derby、等
-
Hⅳe 中的元数据包括表的名字、表的列和分区及其属性、表的属性(是否为外部表等)、表的数据所在目录等
-
-
Hive 的数据存储在 HDFS 中,大部分的查询、计算由 MapReduce 完成
-
包含 * 的查询,比如 select * from tb 不会生成 MapRedcue任务
-