我是先安装的hadoop,后安装了hive,启动hive正常,但是安装了spark之后启动hive出现以下异常
启动hive 报错,spark-assembly-.jar: No such file or directory
原因: 我用的spark版本是2.3.3,在spark2以上的版本,在spark2之前的lib中可以找到spark-assembly-.jar,但是在spark2之后lib包已经不存在了,所有的jar都放在了jars中,而spark-assembly-*.jar也不存在了,此包拆解成了很多小的jar包。但是在hive的配置文件中spark的jar路径没有改正,所以我们要手动改正。
进入hive的安装包,进入bin目录
vim hive
修改spark的jar路径
修改之前
修改之后
重新启动hive
hive
启动成功