使用ambari搭建spark连接外置hive

02月26日 使用ambari搭建spark连接外置hive.note目标

使用amabri 搭建hive 和spark后,hive建立外部表,使用sparksql连接hive元数据(mysql)。

步骤

1、先将安装好的spark conf目录下生成的hive-site.xml重命名备份(其实用不到)

[root@mycentos703 conf]# cd /usr/hdp/3.1.0.0-78/spark2/conf/

[root@mycentos703 conf]# mv hive-site.xml hive-site.xml.bak

2、将hive目录下的hive-site.xml拷贝过来,前提是hive可以正常工作,使用tez没有问题,元数据库一切配置完成。

[root@mycentos703 conf]# cp /usr/hdp/3.1.0.0-78/hive/conf/hive-site.xml ./

0

3、编辑spark/conf/hive-site.xml,查找所有tez相关配置并删除。

4、修改spark配置并重启spark服务,将默认的连接spark内置hive元数据指定为hive

从spark改成hive

0

运行测试

1、启动spark-shell

[root@mycentos703 conf]# spark-shell

0

2、查看是否连接外部hive元数据

0

连接成功!

注:

1、spark-shell正确退出为

:quit

否则再次启动spark-shell会有如下警告:

0

2、解决

lsof -i:4040

lsof -i:4041

依次查看 直接kill -9  进程ID

最后在启动spark-shell 问题解决了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值