安装前准备:保证 hadoop 正常运行+保证 mysql 正常运行
注意事项:hive仅仅是一个客户端工具,不存在集群概念,因此安装的时候无需每台机器安装,哪个节点需要使用,就安装在哪个节点上,多个节点安装的时候mysql的元数据库一定要相同(即要在同一个mysql同一个库上),否则各个客户端获取的数据不一致。
一、下载hive安装包:因安装MYSQL时下载了WGET,所以不在使用本地下载,上传至服务器的方式,直接WGET就OK:
wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz
二、解压:tar -zxvf apache-hive-2.3.5-bin.tar.gz
注:本人嫌麻烦,所以将带版本号的文件夹MV成不带版本号的
三、修改配置文件:将hive-default.xml.template 重命名为hive-default.xml,再新建hive-site.xml文件,并写入:
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://node1:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<property>
<name>hive.metastore.local</name>
<value>true</value>
</property>
配置hive-env.sh末尾写入:
export HADOOP_HOME=/usr/hadoop
export HIVE_CONF_DIR=/usr/hive/conf
export HIVE_AUX_JARS_PATH=/usr/hive/lib
四、使用hadoop新建hdfs目录:
路径:/user/hive/warehouse
命令:在hadoop安装路径下的bin下执行
bin/hadoop fs -mkdir -p /user/hive/warehouse #创建目录
bin/hadoop fs -chmod -R 777 /user/hive/warehouse #新建的目录赋予读写权限
bin/hadoop fs -mkdir -p /tmp/hive/#新建/tmp/hive/目录
bin/hadoop fs -chmod -R 777 /tmp/hive #目录赋予读写权限
#用以下命令检查目录是否创建成功
bin/hadoop fs -ls /user/hive
bin/hadoop fs -ls /tmp/hive
五、添加驱动JAR包,放在HIVE目录下的LIB目录下:
wget https://repo1.maven.org/maven2/mysql/mysql-connector-java/5.1.6/mysql-connector-java-5.1.6.jar
六、配置环境变量:vi /etc/profile
添加环境路径
保存后刷新环境变量:source /etc/profile
七、启动hive并测试: