1. 前期准备
- 安装jdk 1.8.0
- 安装hadoop 2.9.0
- 安装mysql 5.6.39
- 下载mysql的jar包 mysql-connector-java-5.1.38.jar, 放入hive目录下的lib目录中
- 下载hive安装包 hive 2.3.3
2. 配置环境变量
- 解压缩到/home/hadoop/hive-2.3.3
- 修改/etc/profile添加hive的环境变量, 同时确保hadoop环境变量已配置
HIVE_HOME=/home/hadoop/hive-2.3.3
PATH=$HIVE_HOME/bin:$PATH
export PATH
3. 修改脚本文件hive-env.sh
- 脚本中被注释掉的hadoop目录和hiveconf目录路径,复制后放开注释并修改
HADOOP_HOME=/home/hadoop/hadoop-2.9.0
export HIVE_CONF_DIR=/home/hadoop/hive-2.3.3/conf
4. 在hive目录下创建本地日志和缓存目录
- 目录名自定义, logs用于存放日志, tmp用于存放缓存, 存放在自定义的hivedata目录下
mkdir -p /home/hadoop/hive-2.3.3/hivedata/logs
mkdir -p /home/hadoop/hive-2.3.3/hivedata/tmp
5. 在HDFS上创建三个目录, 修改权限统