1. 安装hadoop (这里安装的是2.8.5)
2. 安装mysql (5.6.42)
详见https://blog.csdn.net/yalongwan01/article/details/81261130
3.安装hive (1.1.0)
#修改hive-site.xml:
javax.jdo.option.ConnectionDriverName
javax.jdo.option.ConnectionURL
javax.jdo.option.ConnectionUserName
javax.jdo.option.ConnectionPassword
#修改hive-env.sh:
export HADOOP_HOME=hadoop安装目录
export HIVE_CONF_DIR= hive安装目录/conf
#修改hive-log4j.properties
创建目录: mkdir $HIVE_HOME/logs
hive.log.dir=/opt/hive-1.1.0/logs
#jdbc jar
cp mysql-connector-java-5.1.42.jar $HIVE_HOME/lib
4. 试着启动一下hive: $HIVE_HOME/bin/.hive
#报错1:发生jar包冲突
冲突为/home/hadoop-2.8.5/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar和/home/hive-1.1.0-bin/lib/hive-jdbc-1.1.0-standalone.jar
解决方法是使用rm命令删掉一个
#报错2: 环境变量设置问题
<property>
<name>Hive.exec.local.scratchdir</name>
<value>${system:java.io.tmpdir}/${system:user.name}</value>
<description>Local scratch space for hive jobs</description>
</property>
<property>
<name>hive.downloaded.resources.dir</name>
<value>${system:java.io.tmpdir}/${hive.session.id}_resources</value>
<description>Temporary local directory for added resources in the remote file system.</description>
</property>
<property>
解决方法:
新建文件夹$HIVE_HOME/tmp
把所有的${system:java.io.tmpdir}处都改为新建文件夹的目录即可
#问题3: ./schematools --dbType initSchema时failed
解决: 1. mysql -u[用户名] -p[密码] 验证用户
2. 检查hive-site.xml 文件中的ConnectionUserName和ConnectionPassword
3. 删除mysql中的metastore数据库, 教程里通常创建为hive