安装hadoop后启动hive正常,安装spark后,启动hive报错,spark-assembly-*.jar: No such file or directory

我是先安装的hadoop,后安装了hive,启动hive正常,但是安装了spark之后启动hive出现以下异常
在这里插入图片描述
启动hive 报错,spark-assembly-.jar: No such file or directory
原因: 我用的spark版本是2.3.3,在spark2以上的版本,在spark2之前的lib中可以找到spark-assembly-
.jar,但是在spark2之后lib包已经不存在了,所有的jar都放在了jars中,而spark-assembly-*.jar也不存在了,此包拆解成了很多小的jar包。但是在hive的配置文件中spark的jar路径没有改正,所以我们要手动改正。

进入hive的安装包,进入bin目录
vim hive
修改spark的jar路径

修改之前
在这里插入图片描述
修改之后
在这里插入图片描述
重新启动hive
hive
启动成功

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值