kettle如何连接hadoop 2.20,参见 “Kettle(PentahoDataIntegration)安装Hadoop-2.2.0插件”
原本官方下载的kettle的4.4版本,默认配置是可以链接hive(不需要拷贝问题),但配置hadoop2.20的文件进来后,无法链接
依据错误提示,明显是kettle的链接hive的驱动有问题,思考为了链接hadoop 2.20版本所做的修改,哪些影响了这个链接,注意到有一个步骤修改了目录指定的文件,就是
plugin.properties文件。修改一行数据: active.hadoop.configuration=hadoop-2.2.0
把原来的hadoop-20目录指定到hadoop-2.2.0,而hadoop-2.2.0目录是根据cdh4目录修改的,细查看里面的hive 的jdbc,是cdh4版本:hive-service-0.8.1-cdh4.0.0,hive-exec-0.8.1-cdh4.0.0
果断把hive的安装目录的相关jar文件,拷贝到plugins\pentaho-big-data-plugin\hadoop-configurations\hadoop-2.2.0\lib目录下,并删除相关cdh4* 的文件。
OK,成功链接!