前言:在mysql配置好的环境下配置hive,mysql配置请参考参考
1.mysql配置好后下载驱动,放在hive/lib下
#可选择自己的版本
wget https://cdn.mysql.com//Downloads/Connector-J/mysql-connector-java-8.0.27.tar.gz
#解压文件到Hive的lib目录下
2.下载hive解压
https://repo.huaweicloud.com/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz
#tar -zxvf 压缩包目录 解压完指定目录
3.在hive/conf目录下复制一份(不推荐重命名,使用软连接也可)
cp hive-env.sh.template hive-env.sh
cp hive-log4j2.properties.template hive-log4j2.properties
cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties
4.配置hive-env.sh文件
#文件最后加入
export HADOOP_HOME=/export/servers/hadoop-3.3.1 #hadoop安装路径
export HIVE_CONF_DIR=/export/servers/apache-hive-3.1.2-src/conf #hive路径
export HIVE_AUX_JARS_PATH=/export/servers/apache-hive-3.1.2-src/lib #hivejar包路径
5.在conf目录下新建hive-site.xml并写入
<configuration>
<!-- jdbc 连接的 URL -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://master:3306/metastore?useSSL=false</value>
</property>
<!-- jdbc 连接的 Driver-->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<!-- jdbc 连接的 username-->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<!-- jdbc 连接的 password -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>mysql</value>
</property>
<!-- Hive 元数据存储版本的验证 -->
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
<!--元数据存储授权-->
<property>
<name>hive.metastore.event.db.notification.api.auth</name>
<value>false</value>
</property>
<!-- Hive 默认在 HDFS 的工作目录 -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/hive/workhouse</value>
</property>
<!-- 指定存储元数据要连接的地址 -->
<property>
<name>hive.metastore.uris</name>
<value>thrift://master:9083</value>
</property>
<!-- 指定 hiveserver2 连接的 host -->
<property>
<name>hive.server2.thrift.bind.host</name>
<value>master</value>
</property>
<!-- 指定 hiveserver2 连接的端口号 -->
<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
</configuration>
6.分发
scp -r apache-hive-3.1.2-bin/ hadoop02:/export/servers/
scp -r apache-hive-3.1.2-bin/ hadoop03:/export/servers/
7.配置环境变量
vim /etc/profile
export HIVE_HOME=/home/export/servers/apache-hive-3.1.2-bin
export PATH=$PATH:$HIVE_HOME/bin
source /etc/profile
scp -r /etc/profile hadoop02:/etc
scp -r /etc/profile hadoop03:/etc
#hadoop02,hadoop03执行source /etc/profile
8.配置完成后要启动mysql服务
#开启mysql服务
systemctl start mysqld.service
#设置开机自动启动MySQL服务
systemctl enable mysqld.service
9.启动metastore
#前台启动metstore服务,有利于快速定位报错,要另开一个窗口
hive --service metastore
#后台启动,无需多开一个窗口
nohup hive --service metastore &
10.开启hiveserver2
#前台
hive --service hiveserver2
#后台
nohup bin/hive --service hiveserver2 &
11.输入beeline进入hive shell命令行,连接mysql
#master为用户名
! connect jdbc:hive2://master:10000
#用户输入root,密码可以直接回车
12.show databases;查看数据库