黑猴子的家:初次启动 Hive Error解决

1、异常重现

[victor@hadoop102 hive]$ bin/hive shell
ls: cannot access /home/hadoop/spark-2.2.0-bin-hadoop2.6/lib/spark-assembly-*.jar: 
No such file or directory
which: no hbase in (/home/hadoop/hive110/bin:
/home/hadoop/spark-2.2.0-bin-hadoop2.6/bin:
/home/hadoop/scala-2.11.0/bin:
/home/hadoop/protobuf250/bin:/home/hadoop/hadoop260/bin:
/home/hadoop/zookeeper345/bin:
/home/hadoop/maven339/bin:
/home/hadoop/jdk1.8.0_144/bin:
/home/hadoop/spark-2.2.0-bin-hadoop2.6/bin:
/home/hadoop/scala-2.11.0/bin:
/home/hadoop/protobuf250/bin:
/home/hadoop/hadoop260/bin:
/home/hadoop/zookeeper345/bin:
/home/hadoop/maven339/bin:
/home/hadoop/jdk1.8.0_144/bin:
/usr/local/bin:
/bin:/usr/bin:/usr/local/sbin:
/usr/sbin:/sbin:/home/hadoop/bin)

Logging initialized using configuration in file:
/home/hadoop/hive110/conf/hive-log4j.properties
WARNING: Hive CLI is deprecated and migration to Beeline is recommended.

2、出现这个问题的原因

spark升级到spark2以后,原有lib目录下的大JAR包被分散成多个小JAR包,原来的spark-assembly-*.jar已经不存在,所以hive没有办法找到这个JAR包。

3、解决方法

编辑hive的安装目录下的bin目录的hive文件,修改sparkAssemblyPath变量

[victor@hadoop102 hive]$ vim bin/hive
 # add Spark assembly jar to the classpath
 if [[ -n "$SPARK_HOME" ]]
 then
  #sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`
  sparkAssemblyPath=`ls ${SPARK_HOME}/jars/*.jar`
  CLASSPATH="${CLASSPATH}:${sparkAssemblyPath}"
 fi

9193428-293593c70fa22e43.png

问题解决

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值