依赖环境
hadoop分布式集群环境为上一篇中搭建好的集群环境:
一台master主机名:ubuntu-01,两台slave节点,分别是 ubuntu-01-node1、ubuntu-01-node2
与hadoop一样,先在ubuntu-01上安装,然后将文件复制到其他节点中。
安装hive之前先启动集群,三台都要启动
提前下载好文件:apache-hive-2.3.2-bin.tar.gz
由于是基于上一篇的hadoop环境,很多路径问题,这里不重复述说。
所遇到的坑(必看、必看、必看)
在上一篇Hadoop完全分布式集群环境搭建及测试中,因为用的jdk 9.0.1而出现了版本不兼容的问题,该问题同样存在hive中,会导致 ./hive
命令启动失败。因此,本人在遇到这个坑之后,才想到将jdk版本替换成老的版本 8.0,所有的问题就解决了,但文章因为是记录,因此文章中的截图文字不会再更改,旨在提醒各位:
别用jdk 8.0以后的版本、 别用jdk 8.0以后的版本、 别用jdk 8.0以后的版本
配置 hive
- 解压hive,执行下面的命令:
cp /mnt/hgfs/linux/apache-hive-2.3.2-bin.tar.gz /local/apache-hive.tar.gz // 复制已下载的文件至hadoop的安装同级目录下
tar zxvf apache-hive.tar.gz // 解压到当前目录下
rm apache-hive.tar.gz // 删除压缩包
ls // 查看当前目录结构
结果如下:
- 修改配置文件
~/.bashrc
vim ~/.bashrc
添加下面两行
export HIVE_HOME=/home/had_user/local/apache-hive-2.3.2-bin // 注意路径,根据自己的安装路径来
export PATH=$PATH:$HIVE_HOME/bin
保存并退出,执行 source ~/.bashrc
安装 Mysql
- 下载安装包: mysql-server_5.7.20-1ubuntu16.04_amd64.deb-bundle.tar
- 解压到
/local/mysql-5.7.20
查看解压后的文件,总共有11个文件,我们用到其中7个,剩下的不知道有什么用,可能是依赖。 <