Hive与ElasticSerach集成数据插入的坑

Hive与ElasticSerach集成必须要依赖外部的jar ,否则就是

ClassNotFoundException

第一种方法: 由于Hive与Es集成,需要第三方Jar,由于Hive和Es不属于同一组织,hive与Es 集成的jar,是第由ElasticSerach公司书写的,所以下载需要去ElasticSerach官网下载

下载地址为 :https://www.elastic.co/cn/downloads/past-releases

下载完毕之后,解压找到自己需要的 jar[elasticsearch-hadoop.jar],上传到自己的所有服务器(所有节点),所有服务器对当前Jar 授权 chmod 777 elasticsearch-hadoop.jar

修改Hive-site.xml配置文件:

添加配置:

修改启动Beeline的shell配置文件:

启动Beeline 运行 既不会报错

第二种方式:上传相对应的Jar上传到所有的节点!!!

使用Beeline 登录,选中databases; 

使用 ADD JAR file:///usr/hdp/elasticsearch_hadoop.jar;  

同样可以,只不过这是 只支持当前会话,如果推出,需要重新运行,首选第一种

ADD JAR file:///usr/hdp/2.4.3.0-227/spark/lib/accumulo-core-1.7.0.2.4.3.0-227.jar;

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值