Hive架构原理与实战——apache-hive-3.1.2+Mysql部署与配置

Hive是一个数据仓库基础工具在Hadoop中用来处理结构化数据。它架构在Hadoop之上,总归为大数据,并使得查询和分析方便。并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行

Hive特点

它存储架构在一个数据库中并处理数据到HDFS。

它是专为OLAP设计。

它提供SQL类型语言查询叫HiveQL或HQL。

它是熟知,快速,可扩展和可扩展的。

Hive架构

下面的组件图描绘了Hive的结构:

该组件图包含不同的单元。下表描述每个单元:

单元名称

操作

用户接口/界面

Hive是一个数据仓库基础工具软件,可以创建用户和HDFS之间互动。用户界面,Hive支持是Hive的Web UI,Hive命令行,HiveHD洞察(在Windows服务器)。

元存储

Hive选择各自的数据库服务器,用以储存表,数据库,列模式或元数据表,它们的数据类型和HDFS映射。

HiveQL处理引擎

HiveQL类似于SQL的查询上Metastore模式信息。这是传统的方式进行MapReduce程序的替代品之一。相反,使用Java编写的MapReduce程序,可以编写为MapReduce工作,并处理它的查询。

执行引擎

HiveQL处理引擎和MapReduce的结合部分是由Hive执行引擎。执行引擎处理查询并产生结果和MapReduce的结果一样。它采用MapReduce方法。

HDFS 或 HBASE

Hadoop的分布式文件系统或者HBASE数据存储技术是用于将数据存储到文件系统。

Hive工作原理

下图描述了Hive 和Hadoop之间的工作流程。

下表定义Hive和Hadoop框架的交互方式:

Step No.

操作

1

Execute Query

Hive接口,如命令行或Web UI发送查询驱动程序(任何数据库驱动程序,如JDBC,ODBC等)来执行。

2

Get Plan

在驱动程序帮助下查询编译器,分析查询检查语法和查询计划或查询的要求。

3

Get Metadata

编译器发送元数据请求到Metastore(任何数据库)。

4

Send Metadata

Metastore发送元数据,以编译器的响应。

5

Send Plan

编译器检查要求,并重新发送计划给驱动程序。到此为止,查询解析和编译完成。

6

Execute Plan

驱动程序发送的执行计划到执行引擎。

7

Execute Job

在内部,执行作业的过程是一个MapReduce工作。执行引擎发送作业给JobTracker,在名称节点并把它分配作业到TaskTracker,这是在数据节点。在这里,查询执行MapReduce工作。

7.1

Metadata Ops

与此同时,在执行时,执行引擎可以通过Metastore执行元数据操作。

8

Fetch Result

执行引擎接收来自数据节点的结果。

9

Send Results

执行引擎发送这些结果值给驱动程序。

10

Send Results

驱动程序将结果发送给Hive接口。

 

解压apache-hive-3.1.2-bin.tar.gz

上传mysql connector的jar包到lib

配置/etc/profile


export HIVE_HOME=/opt/packages/hive/hadoop-3.1.4
export PATH=$PATH:$HIVE_HOME/bin


hive-env.sh配置

export HADOOP_HOME=/opt/packages/hadoop/hadoop-3.1.4


jpox.properties

javax.jdo.PersistenceManagerFactoryClass =

org.jpox.PersistenceManagerFactoryImpl
org.jpox.autoCreateSchema = false
org.jpox.validateTables = false
org.jpox.validateColumns = false
org.jpox.validateConstraints = false
org.jpox.storeManagerType = rdbms
org.jpox.autoCreateSchema = true
org.jpox.autoStartMechanismMode = checked
org.jpox.transactionIsolation = read_committed
javax.jdo.option.DetachAllOnCommit = true
javax.jdo.option.NontransactionalRead = true
javax.jdo.option.ConnectionDriverName = com.mysql.jdbc.Driver
javax.jdo.option.ConnectionURL = jdbc:mysql://192.168.9.58:3306/hive_metastore?characterEncoding=utf-8&useSSL=false
javax.jdo.option.ConnectionUserName = root
javax.jdo.option.ConnectionPassword = 123456


hive-site.xml 配置


<configuration>
        <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://192.168.9.58:3306/hive_metastore?createDatabaseIfNotExist=true</value>
        <description>JDBC connect string for a JDBC metastore</description>
        <!-- 如果 mysql 和 hive 在同一个服务器节点,那么请更改 hadoop02 为 localhost -->
        </property>
        <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
        <description>Driver class name for a JDBC metastore</description>
        </property>
        <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
        <description>username to use against metastore database</description>
        </property>
        <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>123456</value>
        <description>password to use against metastore database</description>
        </property>
<property> 
   <name>datanucleus.autoCreateSchema</name> 
   <value>true</value> 
</property> 
<property> 
   <name>datanucleus.autoCreateTables</name> 
   <value>true</value> 
</property> 
 
<property> 
   <name>datanucleus.fixedDatastore</name> 
   <value>false</value> 
</property> 
</configuration>


配置~/.bashrc
export HIVE_HOME=/opt/packages/hive/apache-hive-3.1.2
export PATH=$PATH:$HIVE_HOME/bin
export CLASSPATH=$CLASSPATH:/opt/packages/hadoop/hadoop-3.1.4/lib
export CLASSPATH=$CLASSPATH:/opt/packages/hive/apache-hive-3.1.2/lib/

初始化数据库

schematool -dbType mysql -initSchema

元数据服务

hive --service metastore

启动

[root@slave123 bin]# hive
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/opt/packages/hive/apache-hive-3.1.2/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/packages/hadoop/hadoop-3.1.4/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Hive Session ID = 0111f9e9-72c8-41c0-ae1c-de15d4fc0e2c

Logging initialized using configuration in jar:file:/opt/packages/hive/apache-hive-3.1.2/lib/hive-common-3.1.2.jar!/hive-log4j2.properties Async: true
2020-09-27 06:36:18,618 WARN  [0111f9e9-72c8-41c0-ae1c-de15d4fc0e2c main] DataNucleus.MetaData: Metadata has jdbc-type of null yet this is not valid. Ignored
Hive-on-MR is deprecated in Hive 2 and may not be available in the future versions. Consider using a different execution engine (i.e. spark, tez) or using Hive 1.X releases.
Hive Session ID = 3048c101-d696-40db-a500-4148870c41ba

创建并查看test数据库

hive> create database test;
OK
Time taken: 0.973 seconds


hive> show databases;
OK
default
test
Time taken: 1.223 seconds, Fetched: 2 row(s)

没有问题

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值