文章目录
一、前期工作
- 安装 JDK
- 安装 Hadoop
- 安装 MySQL( https://blog.csdn.net/xiangwanpeng/article/details/54562362 )
二、下载安装
2.1、下载
下载 apache-hive-2.3.4-bin.tar.gz ( https://archive.apache.org/dist/hive/hive-2.3.4/ )
2.2、安装
将下载的 tar 包解压:
tar -xzvf apache-hive-2.3.4-bin.tar.gz
2.3、设置环境变量
vim ~/.bashrc
添加如下内容:
# Hive
export HIVE_HOME=/home/hadoop/hive-2.3.4
export PATH=$PATH:$HIVE_HOME/bin
使环境变量生效:
source ~/.bashrc
为确保配置成功进行验证,如果显有版本号则以上步骤皆为正常:
hive --version
三、 创建 hive 所要的 hdfs 目录
hdfs dfs -mkdir -p /user/hive/warehouse
hdfs dfs -mkdir -p /user/hive/tmp
hdfs dfs -mkdir -p /user/hive/log
hdfs dfs -chmod 777 /user/hive/warehouse
hdfs dfs -chmod 777 /usr/hive/tmp
hdfs dfs -chmod 777 /usr/hive/log
创建完成后可以使用hdfs dfs -ls /user/hive
查看是否已经成功新建文件夹。
四、修改 hive 所需配置
4.1、配置文件 hive.site.xml
进入Hive/conf
文件夹 复制示例配置文件并改名为hive.site.xml
:
在开头添加如下配置:
<property>
<name>system:java.io.tmpdir</name>
<value>/tmp/hive/java</value>
</property>
<property>
<name>system:user.name</name>
<value>${user.name}</value>
</property>
然后把新建的 HDFS 文件夹的路径添加到配置文件中去(配置都有,只需替换值):
<!-- 资源临时文件存放位置 -->
<property>
<name<