【大数据】7:Apache Hive(一)

目录

Apache Hive

1.Apache Hive 概述

1.1分布式SQL计算

1.2分布式SQL计算 - Hive

2.模拟实现Hive功能

2.1.元数据管理

2.2解析器

2.3基础架构

2.4Hive架构

3.Hive基础架构

3.1Hive架构图

3.2Hive组件

4.Hive部署

4.1 VMware虚拟机部署


Apache Hive

1. Apache Hive 概述

1.1 分布式SQL计算

对数据进行统计分析,SQL是目前最为方便的编程工具。

大数据体系中充斥着非常多的统计分析场景 所以,使用SQL去处理数据,在大数据中也是有极大的需求的。

MapReduce支持程序开发(Java、Python等) 但不支持SQL开发

1.2 分布式SQL计算 - Hive

Apache Hive是一款分布式SQL计算的工具, 其主要功能是:

将SQL语句 翻译成MapReduce程序运行

01c9908069ba44ceb2482339d0d91fab.png

为什么使用Hive?

使用Hadoop MapReduce直接处理数据所面临的问题

  • 人员学习成本太高 需要掌握java、Python等编程语言
  • MapReduce实现复杂查询逻辑开发难度太大

使用Hive处理数据的好处

  • 操作接口采用类SQL语法,提供快速开发的能力(简单、容易上手)
  • 底层执行MapReduce,可以完成分布式海量数据的SQL处理

2. 模拟实现Hive功能

思考:

如果让您设计Hive这款软件,要求能够实现 用户只编写sql语句 Hive自动将sql转换MapReduce程序并提交运行 处理位于HDFS上的结构化数据。 如何实现?

2.1 元数据管理

假设有如下结构化文本数据存储在HDFS中。

7c1574dbba504bcea7e3d84104aa4bbf.png

假设要执行:

SELECT city, COUNT(*) FROM t_user GROUP BY city;

对这个SQL翻译成MapReduce程序,会出现哪些困难?

针对SQL:SELECT city, COUNT(*) FROM t_user GROUP BY city;

若翻译成MapReduce程序,有如下问题: 数据文件在哪里? 使用什么符号作为列的分隔符? 哪些列可以作为city使用? city列是什么类型的数据?

8c97e89d35274cbeb15510916004cedd.png

这些信息同时也需要有地方存储起来,方便多次使用。 如何存储最好呢? 很简单,找一个数据库即可,比如MySQL

所以,我们可以总结出来第一个点, 即构建分布式SQL计算, 需要拥有: 元数据管理功能,即: 数据位置 数据结构 等对数据进行描述

进行记录

2.2 解析器

解决了元数据管理后,我们还有一个至关重要的步骤, 即完成SQL到MapReduce转换的功能

39958d874c6644309d3296f2b0efd43e.png

我们称呼它为:SQL解析器,

期待它能做到:

  • SQL分析
  • SQL到MapReduce程序的转换
  • 提交MapReduce程序运行并收集执行结果

2.3 基础架构

所以,当解析器也拥有了之后,我们就完成了一款基于MapReduce的,分布式SQL执行引擎的基础构建。 即,核心组件需要有:

  • 元数据管理,帮助记录各类元数据
  • SQL解析器,完成SQL到MapReduce程序的转换

当拥有这2个组件, 基本上分布式SQL计算的能力就实现了。

2.4 Hive架构

Apache Hive其2大主要组件就是:SQL解析器以及元数据存储, 如下图

73fb49925edc4c9bb2cd0b47916b97ee.png

3. Hive基础架构

3.1 Hive架构图

10ad9e3325234699aa373cde02b8ddb5.png

3.2 Hive组件

  • 元数据存储

通常是存储在关系数据库如 mysql/derby中。Hive 中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。

-- Hive提供了 Metastore 服务进程提供元数据管理功能

f31967a4d5884839b41039d68468d40d.png

 

  • Driver驱动程序,包括语法解析器、计划编译器、优化器、执行器

完成 HQL 查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在 HDFS 中,并在随后有执行引擎调用执行。 这部分内容不是具体的服务进程,而是封装在Hive所依赖的Jar文件即Java代码中。

21f69dc2e76b41d2bf3fc591f5061aea.png

 

  • 用户接口

包括 CLI、JDBC/ODBC、WebGUI。其中,CLI(command line interface)为shell命令行;Hive中的Thrift服务器允许外部客户端通过网络与Hive进行交互,类似于JDBC或ODBC协议。WebGUI是通过浏览器访问Hive。 -- Hive提供了 Hive Shell、 ThriftServer等服务进程向用户提供操作接口

a811c5cffbfa42e49466001dd12fcad2.png

 

Hive的核心架构

  • 元数据管理,称之为Metastore服务
  • SQL解析器(Driver驱动程序),完成SQL解析、执行优化、代码提交等功能
  • 用户接口:提供用户和Hive交互的功能

68f1506e7be24bd6b5b3dec25535a75a.png

 

4. Hive部署

4.1 VMware虚拟机部署

Hive是单机工具,只需要部署在一台服务器即可。

Hive虽然是单机的,但是它可以提交分布式运行的MapReduce程序运行。

规划

我们知道Hive是单机工具后,就需要准备一台服务器供Hive使用即可。

同时Hive需要使用元数据服务,即需要提供一个关系型数据库,我们也选择一台服务器安装关系型数据库即可。

1ec975a4ae3e41a39168cdd9c9536b5e.png

所以: 为了简单起见,都安装到node1服务器上。

步骤1:安装MySQL数据库

在node1节点使用yum在线安装MySQL5.7版本。

# 更新密钥
rpm --import https://repo.mysql.com/RPM-GPG-KEY-mysql-2022

# 安装Mysql yum库
rpm -Uvh http://repo.mysql.com//mysql57-community-release-el7-7.noarch.rpm

# yum安装Mysql
yum -y install mysql-community-server

# 启动Mysql设置开机启动
systemctl start mysqld
systemctl enable mysqld

# 检查Mysql服务状态
systemctl status mysqld

# 第一次启动mysql,会在日志文件中生成root用户的一个随机密码,使用下面命令查看该密码
grep 'temporary password' /var/log/mysqld.log

# 修改root用户密码
mysql -u root -p -h localhost
Enter password:
 
mysql> ALTER USER 'root'@'localhost' IDENTIFIED BY 'Root!@#$';

# 如果你想设置简单密码,需要降低Mysql的密码安全级别
set global validate_password_policy=LOW; # 密码安全级别低
set global validate_password_length=4;	 # 密码长度最低4位即可

# 然后就可以用简单密码了(课程中使用简单密码,为了方便,生产中不要这样)
ALTER USER 'root'@'localhost' IDENTIFIED BY 'root';

/usr/bin/mysqladmin -u root password 'root'

grant all privileges on *.* to root@"%" identified by 'root' with grant option;  
flush privileges;

步骤2:配置Hadoop

Hive的运行依赖于Hadoop(HDFS、MapReduce、YARN都依赖)

同时涉及到HDFS文件系统的访问,所以需要配置Hadoop的代理用户

即设置hadoop用户允许代理(模拟)其它用户

配置如下内容在Hadoop的core-site.xml中,并分发到其它节点,且重启HDFS集群

<property>
    <name>hadoop.proxyuser.hadoop.hosts</name>
    <value>*</value>
</property>
<property>
    <name>hadoop.proxyuser.hadoop.groups</name>
    <value>*</value>
</property>

步骤3:下载解压Hive

  • 切换到hadoop用户
su - hadoop
  • 下载Hive安装包
http://archive.apache.org/dist/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz
  • 解压到node1服务器的:/export/server/内
tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /export/server/
  • 设置软连接
ln -s /export/server/apache-hive-3.1.3-bin /export/server/hive

步骤4:提供MySQL Driver包 

  • 下载MySQL驱动包
https://repo1.maven.org/maven2/mysql/mysql-connector-java/5.1.34/mysql-connector-java-5.1.34.jar
  • 将下载好的驱动jar包,放入:Hive安装文件夹的lib目录内
mv mysql-connector-java-5.1.34.jar /export/server/hive/lib/

步骤5:配置Hive

  • 在Hive的conf目录内,新建hive-env.sh文件,填入以下环境变量内容:
export HADOOP_HOME=/export/server/hadoop 
export HIVE_CONF_DIR=/export/server/hive/conf 
export HIVE_AUX_JARS_PATH=/export/server/hive/lib
  • 在Hive的conf目录内,新建hive-site.xml文件,填入以下内容:
<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://node1:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
  </property>

  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
  </property>

  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
  </property>

  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
  </property>

  <property>
    <name>hive.server2.thrift.bind.host</name>
    <value>node1</value>
  </property>

  <property>
    <name>hive.metastore.uris</name>
    <value>thrift://node1:9083</value>
  </property>

  <property>
    <name>hive.metastore.event.db.notification.api.auth</name>
    <value>false</value>
  </property>

</configuration>

步骤6:初始化元数据库

支持,Hive的配置已经完成,现在在启动Hive前,需要先初始化Hive所需的元数据库。

  • 在MySQL中新建数据库:hive
CREATE DATABASE hive CHARSET UTF8;
  • 执行元数据库初始化命令:
     
cd /export/server/hive 

bin/schematool -initSchema -dbType mysql -verbos

# 初始化成功后,会在MySQL的hive库中新建74张元数据管理的表。

步骤7:启动Hive(使用Hadoop用户)

  • 确保Hive文件夹所属为hadoop用户
  • 创建一个hive的日志文件夹:
mkdir /export/server/hive/logs
  • 启动元数据管理服务(必须启动,否则无法工作)

前台启动:

bin/hive --service metastore

后台启动:

nohup bin/hive --service metastore >> logs/metastore.log 2>&1 & 
  • 启动客户端,二选一(当前先选择Hive Shell方式)

Hive Shell方式(可以直接写SQL):

 bin/hive

Hive ThriftServer方式(不可直接写SQL,需要外部客户端链接使用):

 bin/hive --service hiveserver2

目录

Apache Hive

1.Apache Hive 概述

1.1分布式SQL计算

1.2分布式SQL计算 - Hive

2.模拟实现Hive功能

2.1.元数据管理

2.2解析器

2.3基础架构

2.4Hive架构

3.Hive基础架构

3.1Hive架构图

3.2Hive组件

4.Hive部署

4.1 VMware虚拟机部署

规划

步骤1:安装MySQL数据库

步骤2:配置Hadoop

步骤3:下载解压Hive

步骤4:提供MySQL Driver包 

步骤5:配置Hive

步骤6:初始化元数据库

步骤7:启动Hive(使用Hadoop用户)


  • 26
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值