解决:kettle连接hadoop 2.20后,导致不能连接Hive的问题

kettle如何连接hadoop 2.20,参见  “Kettle(PentahoDataIntegration安装Hadoop-2.2.0插件


原本官方下载的kettle的4.4版本,默认配置是可以链接hive(不需要拷贝问题),但配置hadoop2.20的文件进来后,无法链接



依据错误提示,明显是kettle的链接hive的驱动有问题,思考为了链接hadoop 2.20版本所做的修改,哪些影响了这个链接,注意到有一个步骤修改了目录指定的文件,就是

plugin.properties文件。修改一行数据:      active.hadoop.configuration=hadoop-2.2.0

把原来的hadoop-20目录指定到hadoop-2.2.0,而hadoop-2.2.0目录是根据cdh4目录修改的,细查看里面的hive 的jdbc,是cdh4版本:hive-service-0.8.1-cdh4.0.0,hive-exec-0.8.1-cdh4.0.0  

果断把hive的安装目录的相关jar文件,拷贝到plugins\pentaho-big-data-plugin\hadoop-configurations\hadoop-2.2.0\lib目录下,并删除相关cdh4* 的文件。


OK,成功链接!


  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值