问题一
Could not create ServerSocket on address 0.0.0.0/0.0.0.0:9083
解决方法:
遇到这种情况大家都找不到头绪,是因为你开始的时候运行了hive的metastore,可以通过输入命令:
jps
查看有没有RunJar
然后再输入命令来启动:
hive --service metastore
问题二
Hive在spark2.0.0启动时无法访问spark-assembly-*.jar的解决办法
ls: /usr/local/share/spark-2.0.0-bin-hadoop2.7/lib/spark-assembly-*.jar: No such file or directory
原因:
发现主要原因是:在//bin/hive文件中,有这样的命令:加载spark中相关的JAR包
if [[ -n "$SPARK_HOME" ]]
then
sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`
CLASSPATH="$