本文章为hadoop、hive安装系列第6/6个步骤,安装配置hive,本来就是要安装hive才写的操作文档,终于到这一步了
目录
(1)上传hive安装包
上传方式介绍2种,一种是通过finallshell上传,一种是使用scp上传,我的是上传到/opt目录下了
(1-1)finalshell上传,此上传方式参考finallshell使用说明那篇文章
(1-2)scp -r apache-hive-3.1.2-bin.tar.gz root@地址:/opt,此上传方式参考scp使用那篇文章
(2)解压hive安装包
# 解压
cd /opt
tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /opt
#修改解压的文件名
mv apache-hive-3.1.2-bin hive
(3)配置环境变量
#修改环境变量
vi /etc/profile
#添加以下内容
export HIVE_HOME=/opt/hive
export PATH=$PATH:$HIVE_HOME/bin
#更新环境变量
source /etc/profile
(4)修改hive配置文件
#进入配置文件所在目录
cd /opt/hive/conf
(4-1)hive-env.sh
#复制文件
cp hive-env.sh.template hive-env.sh
#编辑hive-env.sh
vi hive-env.sh
#添加末尾以下内容
export HADOOP_HOME=/usr/local/src/hadoop-3.2.4
export HIVE_CONF_DIR=/opt/hive
export HIVE_AUX_JARS_PATH=/opt/hive/lib
export JAVA_HOME=/opt/jdk
(4-2)hive-site.xml
创建文件hive-site.xml文件
#新建hive-site.xml文件
touch hive-site.xml
#编辑文件
vi hive-site.xml
#在文件中添加以下内容
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://master:3306/hive?createDatabaseIfNotExist=true&useSSL=false</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
<description>password to use against metastore database</description>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
<description>location of default database for the warehouse</description>
</property>
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
<property>
<name>datanucleus.schema.autoCreateAll</name>
<value>true</value>
</property>
</configuration>
(5)添加mysql_jdbc驱动到hive
#添加mysql_jdbc驱动到hive安装包lib目录下
上传方式介绍2种,一种是通过finallshell上传,一种是使用scp上传,我的是上传到/opt目录下了
(1-1)finalshell上传,此上传方式参考finallshell使用说明那篇文章
(1-2)scp -r mysql-connector-java-5.1.47.jar root@地址:/opt/hive/lib,此上传方式参考scp使用那篇文章
(6)统一guava-X.X版本
统一下guava的版本要不启动hive会报错
#删除hive/lib下版本
rm /opt/hive/lib/guava-19.0.jar
#复制Hadoop下jar版本
cp /usr/local/src/hadoop-3.2.4/share/hadoop/common/lib/guava-27.0-jre.jar /opt/hive/lib/
(7)初始化mysql
#初始化mysql
schematool -initSchema -dbType mysql
(8)启动hive
启动hive之前要启动hadoop集群
#启动hadoop
start-all.sh
#启动hive
cd /opt/hive/lib
#启动hive
hive