大数据Hive--安装和配置

有需要Hive-3.1.3.安装包和 MySQL安装包以及MySQL驱动jar包的,请浏览文章末尾

一、Hive的安装地址

  • Hive官网地址
    http://hive.apache.org/
  • 下载地址
    http://archive.apache.org/dist/hive/

1.1 Hive安装部署

1.1.1 安装Hive

1)把apache-hive-3.1.3-bin.tar.gz上传到Linux的/opt/software目录下

2)解压apache-hive-3.1.3-bin.tar.gz到/opt/module/目录下面

[yudan@hadoop102 software]$ tar -zxvf /opt/software/apache-hive-3.1.3-bin.tar.gz -C /opt/module/

3)修改apache-hive-3.1.3-bin.tar.gz的名称为hive

[yudan@hadoop102 software]$ mv /opt/module/apache-hive-3.1.3-bin/ /opt/module/hive

4)修改/etc/profile.d/my_env.sh,添加环境变量

[yudan@hadoop102 software]$ sudo vim /etc/profile.d/my_env.sh

  • 添加内容

#HIVE_HOME
export HIVE_HOME=/opt/module/hive
export PATH=$PATH:$HIVE_HOME/bin

  • source一下

[yudan@hadoop102 hive]$ source /etc/profile.d/my_env.sh

5)初始化元数据库(默认是derby数据库)

[yudan@hadoop102 hive]$ bin/schematool -dbType derby -initSchema

1.1.2 启动Hive

1)启动Hive

[yudan@hadoop102 hive]$ bin/hive

derby数据库的特点是同一时间只允许一个客户端访问。如果多个Hive客户端同时访问,就会报错。由于在企业开发中,都是多人协作开发,需要多客户端同时访问Hive,怎么解决呢?我们可以将Hive的元数据改为用MySQL存储,MySQL支持多客户端同时访问。

2)首先退出hive客户端。然后在Hive的安装目录下将derby.log和metastore_db删除,顺便将HDFS上目录删除

hive> quit;
[yudan@hadoop102 hive]$ rm -rf derby.log metastore_db
[yudan@hadoop102 hive]$ hadoop fs -rm -r /user

3)删除HDFS中/user/hive/warehouse中数据

二、MySQL的安装地址

2.1 安装MySQL

1)上传MySQL安装包以及MySQL驱动jar包

上传到Linux /opt/software/mysql路径下,若无该路径可以自己创建
[yudan@hadoop102 software]$ mkdir mysql
mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar
mysql-connector-java-5.1.37.jar

2)解压MySQL安装包

[yudan@hadoop102 software]$ tar -xf mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar -C /opt/software/mysql

3)卸载系统自带的mariadb

[yudan@hadoop102 ~]$ sudo rpm -qa | grep mariadb | xargs sudo rpm -e --nodeps

4)安装MySQL依赖

注意: MySQL依赖必须依次安装,因为MySQL依赖之间有关联(在离线模式安装)
若在线模式安装则不存在这个问题,yum会自己找到MySQL缺少的依赖自己安装

[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-common-5.7.28-1.el7.x86_64.rpm
[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-libs-5.7.28-1.el7.x86_64.rpm
[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-libs-compat-5.7.28-1.el7.x86_64.rpm
安装mysql-client
[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-client-5.7.28-1.el7.x86_64.rpm
安装mysql-server
[yudan@hadoop102 mysql]$ sudo rpm -ivh mysql-community-server-5.7.28-1.el7.x86_64.rpm

5)启动MySQL

[yudan@hadoop102 mysql]$ sudo systemctl start mysqld

6)查看MySQL密码

[yudan@hadoop102 mysql]$ sudo cat /var/log/mysqld.log | grep password

2.2 配置MySQL

配置主要是root用户 + 密码,在任何主机上都能登录MySQL数据库。

1)用刚刚查到的密码进入MySQL(如果报错,给密码加单引号)

[yudan@hadoop102 mysql]$ mysql -uroot -p’password’

2)设置复杂密码(由于MySQL密码策略,此密码必须足够复杂)

mysql> set password=password(“Qs23=zs32”);

3)更改MySQL密码策略

mysql> set global validate_password_policy=0;
mysql> set global validate_password_length=4;

4)设置简单好记的密码

mysql> set password=password(“123456”);

5)进入MySQL库

mysql> use mysql

6)修改user表,把Host表内容修改为%

mysql> update user set host=“%” where user=“root”;

7)刷新

mysql> flush privileges;

2.3 卸载MySQL

若因为安装失败或者其他原因,MySQL需要卸载重装,可参考以下内容。
1)清空原有数据
①通过/etc/my.cnf查看MySQL数据的存储位置

[yudan@hadoop102 software]$ sudo cat /etc/my.cnf
[mysqld]
datadir=/var/lib/mysql

②去往/var/lib/mysql路径需要root权限

[yudan@hadoop102 mysql]$ su - root [root@hadoop102 ~]# cd /var/lib/mysql
[root@hadoop102 mysql]# rm -rf * (注意敲击命令的位置)

(2)卸载MySQL相关包
①查看安装过的MySQL相关包

[yudan@hadoop102 software]$ sudo rpm -qa | grep -i -E mysql

mysql-community-libs-5.7.16-1.el7.x86_64
mysql-community-client-5.7.16-1.el7.x86_64
mysql-community-common-5.7.16-1.el7.x86_64
mysql-community-libs-compat-5.7.16-1.el7.x86_64
mysql-community-server-5.7.16-1.el7.x86_64

②一键卸载命令

[yudan@hadoop102 software]$ rpm -qa | grep -i -E mysql|mariadb | xargs -n1 sudo rpm -e --nodeps

三、配置Hive元数据存储到MySQL

配置Hive元数据

3.1 配置Hive元数据存储到MySQL

1)新建Hive元数据库

#登录MySQL
[yudan@hadoop102 software]$ mysql -uroot -p123456

#创建Hive元数据库
mysql> create database metastore;
mysql> quit;

2)将MySQL的JDBC驱动拷贝到Hive的lib目录下。

[yudan@hadoop102 software]$ cp /opt/software/mysql-connector-java-5.1.37.jar $HIVE_HOME/lib

3)在$HIVE_HOME/conf目录下新建hive-site.xml文件

[yudan@hadoop102 software]$ vim $HIVE_HOME/conf/hive-site.xml

添加如下内容:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- jdbc连接的URL -->
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
</property>

<!-- jdbc连接的Driver-->
<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
</property>

<!-- jdbc连接的username-->
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
</property>

<!-- jdbc连接的password -->
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
</property>

<!-- Hive默认在HDFS的工作目录 -->
<property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
</property>
</configuration>

4)初始化Hive元数据库(修改为采用MySQL存储元数据)

[yudan@hadoop102 hive]$ bin/schematool -dbType mysql -initSchema -verbose

3.2 验证元数据是否配置成功

1)再次启动Hive

[yudan@hadoop102 hive]$ bin/hive

3.3 查看MySQL中的元数据

1)登录MySQL

[yudan@hadoop102 hive]$ mysql -uroot -p123456

2)查看元数据库metastore

mysql> show databases;
mysql> use metastore;
mysql> show tables;

四、Hive服务部署

4.1 hiveserver2服务

Hive的hiveserver2服务的作用是提供jdbc/odbc接口,为用户提供远程访问Hive数据的功能,例如用户期望在个人电脑中访问远程服务中的Hive数据,就需要用到Hiveserver2。
hiveserver2
1)用户说明
在远程访问Hive数据时,客户端并未直接访问Hadoop集群,而是由Hivesever2代理访问。由于Hadoop集群中的数据具备访问权限控制,所以此时需考虑一个问题:那就是访问Hadoop集群的用户身份是谁?是Hiveserver2的启动用户?还是客户端的登录用户?
答案是都有可能,具体是谁,由Hiveserver2的hive.server2.enable.doAs参数决定,该参数的含义是是否启用Hiveserver2用户模拟的功能。若启用,则Hiveserver2会模拟成客户端的登录用户去访问Hadoop集群的数据,不启用,则Hivesever2会直接使用启动用户访问Hadoop集群数据。模拟用户的功能,默认是开启的。

2)hiveserver2部署
(1)Hadoop端配置
hivesever2的模拟用户功能,依赖于Hadoop提供的proxy user(代理用户功能),只有Hadoop中的代理用户才能模拟其他用户的身份访问Hadoop集群。因此,需要将hiveserver2的启动用户设置为Hadoop的代理用户,配置方式如下:

修改配置文件core-site.xml,然后记得分发三台机器

[yudan@hadoop102 ~]$ cd $HADOOP_HOME/etc/hadoop
[yudan@hadoop102 hadoop]$ vim core-site.xml

增加如下配置:

注意:下面的用户配置自己Linux的用户
<!--配置所有节点的yudan用户都可作为代理用户-->
<property>
<name>hadoop.proxyuser.yudan.hosts</name>
<value>*</value>
</property>

<!--配置yudan用户能够代理的用户组为任意组-->
<property>
<name>hadoop.proxyuser.yudan.groups</name>
<value>*</value>
</property>

<!--配置yudan用户能够代理的用户为任意用户-->
<property>
<name>hadoop.proxyuser.yudan.users</name>
<value>*</value>
</property>

(2)Hive端配置
在hive-site.xml文件中添加如下配置信息

[yudan@hadoop102 conf]$ vim hive-site.xml

<!-- 指定hiveserver2连接的host -->
<property>
<name>hive.server2.thrift.bind.host</name>
<value>hadoop102</value>
</property>

<!-- 指定hiveserver2连接的端口号 -->
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>

3)测试
①启动hiveserver2

[yudan@hadoop102 hive]$ bin/hive --service hiveserver2
生产环境启动hivesercer2:nohup bin/hiveserver2 >/dev/null 2>&1 &(退后台去运行)

②使用命令行客户端beeline进行远程访问

启动beeline客户端
[yudan@hadoop102 hive]$ bin/beeline -u jdbc:hive2://hadoop102:10000 -n atguigu

看到如下界面
Connecting to jdbc:hive2://hadoop102:10000
Connected to: Apache Hive (version 3.1.3)
Driver: Hive JDBC (version 3.1.3)
Transaction isolation: TRANSACTION_REPEATABLE_READ
Beeline version 3.1.3 by Apache Hive
0: jdbc:hive2://hadoop102:10000>

③使用Datagrip图形化客户端进行远程访问。
DataGrip安装路径

4.2 metastore服务

Hive的metastore服务的作用是为Hive CLI或者Hiveserver2提供元数据访问接口。

1)metastore运行模式
metastore有两种运行模式,分别为嵌入式模式和独立服务模式。下面分别对两种模式进行说明:

  • 生产环境中,不推荐使用嵌入式模式。因为其存在以下两个问题:
    • 嵌入式模式下,每个Hive CLI都需要直接连接元数据库,当Hive CLI较多时,数据库压力会比较大。
    • 每个客户端都需要用户元数据库的读写权限,元数据库的安全得不到很好的保证。

2)metastore部署

①嵌入式模式
嵌入式模式下,只需保证Hiveserver2和每个Hive CLI的配置文件hive-site.xml中包含连接元数据库所需要的以下参数即可:

// 这个在配置Hive元数据库连接MySQL已经配置过
<!-- jdbc连接的URL -->
<property>        <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
</property>

<!-- jdbc连接的Driver-->
<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
</property>

<!-- jdbc连接的username-->
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
</property>

<!-- jdbc连接的password -->
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
</property>

②独立服务模式
独立服务模式需做以下配置:
首先,保证metastore服务的配置文件hive-site.xml中包含连接元数据库所需的以下参数:

// 同上这个参数也已经配置
<!-- jdbc连接的URL -->
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
</property>

<!-- jdbc连接的Driver-->
<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
</property>

<!-- jdbc连接的username-->
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
</property>

<!-- jdbc连接的password -->
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
</property>

其次,保证Hiveserver2和每个Hive CLI的配置文件hive-site.xml中包含访问metastore服务所需的以下参数:

<!-- 指定metastore服务的地址 -->
<property>
<name>hive.metastore.uris</name>
<value>thrift://hadoop102:9083</value>
</property>
注意:主机名需要改为metastore服务所在节点,端口号无需修改,metastore服务的默认端口就是9083。

3)测试
metastore服务的启动命令如下:

[yudan@hadoop202 hive]$ nohup hive --service metastore 2>&1 &

五、Hive使用技巧

5.1 Hive常用交互命令

[atguigu@hadoop102 hive]$ bin/hive -help
usage: hive
 -d,--define <key=value>          Variable subsitution to apply to hive
                              commands. e.g. -d A=B or --define A=B
--database <databasename>     Specify the database to use
 -e <quoted-query-string>         SQL from command line
 -f <filename>                      SQL from files
 -H,--help                        Print help information
--hiveconf <property=value>   Use value for given property
--hivevar <key=value>         Variable subsitution to apply to hive
                              commands. e.g. --hivevar A=B
 -i <filename>                    Initialization SQL file
 -S,--silent                      Silent mode in interactive shell
 -v,--verbose                     Verbose mode (echo executed SQL to the console)

5.2 Hive常见属性配置

1)Hive客户端显示当前库和表头

①在hive-site.xml中加入如下两个配置:

[yudan@hadoop102 conf]$ vim hive-site.xml

<property>
<name>hive.cli.print.header</name>
<value>true</value>
<description>Whether to print the names of the columns in query output.</description>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
<description>Whether to include the current database in the Hive prompt.</description>
</property>

②hive客户端在运行时可以显示当前使用的库和表头信息

[yudan@hadoop102 conf]$ hive

hive (default)> select * from student;
OK
stu.id	stu.name
1	      yudan
Time taken: 1.874 seconds, Fetched: 1 row(s)
hive (default)>

2)Hive运行日志路径配置

①Hive的log默认存放在/tmp/atguigu/hive.log目录下(当前用户名下)

[yudan@hadoop102 yudan]$ pwd /tmp/yudan
[yudan@hadoop102 yudan]$ ls
hive.log
hive.log.2022-06-27

②修改Hive的log存放日志到/opt/module/hive/logs

  • 修改$HIVE_HOME/conf/hive-log4j2.properties.template文件名称为hive-log4j2.properties

[yudan@hadoop102 conf]$ pwd /opt/module/hive/conf

[yudan@hadoop102 conf]$ mv hive-log4j2.properties.template hive-log4j2.properties

  • 在hive-log4j2.properties文件中修改log存放位置

[yudan@hadoop102 conf]$ vim hive-log4j2.properties
修改配置如下
property.hive.log.dir=/opt/module/hive/logs

3)Hive的JVM堆内存设置
新版本的Hive启动的时候,默认申请的JVM堆内存大小为256M,JVM堆内存申请的太小,导致后期开启本地模式,执行复杂的SQL时经常会报错:java.lang.OutOfMemoryError: Java heap space,因此最好提前调整一下HADOOP_HEAPSIZE这个参数。

①修改$HIVE_HOME/conf下的hive-env.sh.template为hive-env.sh

[yudan@hadoop102 conf]$ pwd /opt/module/hive/conf

[yudan@hadoop102 conf]$ mv hive-env.sh.template hive-env.sh

②将hive-env.sh其中的参数 export HADOOP_HEAPSIZE修改为2048,重启Hive。

修改前
#The heap size of the jvm stared by hive shell script can be controlled via:
#export HADOOP_HEAPSIZE=1024

修改后
The heap size of the jvm stared by hive shell script can be controlled via:
#export HADOOP_HEAPSIZE=2048

4)关闭Hadoop虚拟内存检查
在yarn-site.xml中关闭虚拟内存检查(虚拟内存校验,如果已经关闭了,就不需要配了)。

①修改前记得先停Hadoop

[yudan@hadoop102 hadoop]$ pwd /opt/module/hadoop-3.1.3/etc/hadoop

[yudan@hadoop102 hadoop]$ vim yarn-site.xml

②添加如下配置

<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>

③修改完后记得分发yarn-site.xml,并重启yarn。

六、所需的安装包资源

链接:https://pan.baidu.com/s/1fwxzKn5PvulUyAxr0cYyHg
提取码:2wa0

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值