*这点看完的耐心都没有,还学啥呢,玩呢?
1、内嵌 Derby 版本
1、 上传安装包 apache-hive-2.3.2-bin.tar.gz 2、 解压安装包 tar -zxvf apache-hive-2.3.2-bin.tar.gz -C /home/hadoop/apps/ 3、 进入到 bin 目录,运行 hive 脚本:[hadoop@hadoop02 bin]$ ./hive
注意: 1、这时候一般会报错:Terminal initialization failed; falling back to unsupported,是因为 hadoop(/root/apps/hadoop-2.6.5/share/hadoop/yarn/lib)集群的 jline-0.9.94.jar 包版本 过低,替换成 hive/lib 中的 jline-2.12.jar 包即可。记住:所有 hdfs 节点都得替换 hadoop-2.6.5/share/hadoop/yarn/lib/jline-0.9.4.jar 替换成 jline-2.12.jar
2、修改 log4j.properties(如果有关于日志报错,请照此修改) cp hive-log4j.properties.template hive-log4j.properties 将 EventCounter 修改成 org.apache.hadoop.log.metrics.EventCounter #log4j.appender.EventCounter=org.apache.hadoop.hive.shims.HiveEventCounter log4j.appender.EventCounter=org.apache.hadoop.log.metrics.EventCounter
如果报错就按照此方式解决,没有报错就不用管,在使用新的 hadoop-2.7.5 版本中已经不 存在这个问题。所以不用关注。
2.1.2、 外置 MySQL 版本
1、 准备好 MySQL(请参考以下文档,或者自行安装 MySQL,或者一个可用的 MySQL)
2、 上传安装包 apache-hive-2.3.2-bin.tar.gz
3、 解压安装包 tar -zxvf apache-hive-2.3.2-bin.tar.gz -c ~/apps/
4、 修改配置文件 [hadoop@hadoop02 conf]# touch hive-site.xml [hadoop@hadoop02 conf]# vi hive-site.xml
可选配置,该配置信息用来指定 Hive 数据仓库的数据存储在 HDFS 上的目录
5、 一定要记得加入 MySQL 驱动包(mysql-connector-java-5.1.40-bin.jar) 该 jar 包放置在 hive 的根路径下的 lib 目录
6、 安装完成,配置环境变量 vi ~/.bashrc 添加以下两行内容: export HIVE_HOME=/home/hadoop/apps/apache-hive-2.3.2-bin export PATH=$PATH:$HIVE_HOME/bin 保存退出。 最后不要忘记:[hadoop@hadoop02 bin]$ source ~/.bashrc
7、 验证 Hive 安装