安装HIVE的前提是先要安装好HADOOP,然后使用<$HADOOP_HOME/bin/hdfs namenode -format>命令来启动namenode和datanode。启动后可以用jps来查看是否启动成功,如下图所示:
一定要有DataNode才说明正常启动HADOOP了,也可以通过$HADOOP_HOME/bin/hadoop dfsadmin -report来查看是namenode和datanode否正常,如果配置都是0那肯定是异常了:
HADOOP环境准备好后,可以从官网上下载HIVE的mirror。下载地址:http://mirror.bit.edu.cn/apache/hive/,根据自身情况下载所需的版本号:
step1. 将下载的mirror文件包解压到/home/cindy/hive下面,新建2个文件,一个是/tmp,一个是warehouse。
$HADOOP_HOME/bin/hadoop fs -mkdir /tmp
$HADOOP_HOME/bin/hadoop fs -chmod 770 /tmp
$HADOOP_HOME/bin/hadoop fs -mkdir /home/cindy/hive/warehouse
$HADOOP_HOME/bin/hadoop fs -chmod 770 /home/cindy/hive/warehouse
step2. 修改hive-site.xml配置文件,cp hive-default.xml.template hive-default.xml and cp hive-log4j2.properties.template hive-log4j2.properties。
step3. 在/etc/profile里面添加export HIVE_HOME=/home/cindy/hive/apache-hive-2.1.0-bin,然后使用. /etc/profile编译一下。
step4. 因为安装的是hive2.1版本,所以需要初始化metastore数据库后才能正常使用,我是用的derby数据库作为元数据数据库,使用如下命令进行初始化即可:
$HIVE_HOME/bin/schematool -dbType derby -initSchema (注:如果使用mysql就将derby替换成mysql)
step5. 初始化成功后可以直接使用$HIVE_HOME/bin/hive来启动HIVE,如果出现>hive说明正常启动了: