首先在kettle中创建表输入与输出,新建一个hive连接并进行测试
会发现报错
需要再E:\bigdata\15-kettle\pdi-ce-9.1.0.0-324\data-integration\lib 下拷贝两个jar包(jar包放到文件末尾)
接着在
E:\bigdata\15-kettle\pdi-ce-9.1.0.0-324\data-integration\plugins\pentaho-big-data-plugin
修改该文件第七行的内容
分别找到下列配置文件
把这五个文件放到
E:\bigdata\15-kettle\pdi-ce-9.1.0.0-324\data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\hdp30
找到hadoop中的jar包(不要弄错了)
下载hive的lib下所有以hive开头的jar包
把这些jar包拷贝到
E:\bigdata\15-kettle\pdi-ce-9.1.0.0-324\data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\hdp30\lib
在hive相关进程都启动的情况下重新启动kettle
这时可以在表输入中看到成功连接hive数据库
可以预览数据
接着在表输出中连接mysql数据库
运行即可
jar包链接:
通过百度网盘分享的文件:fsdownlo…
链接:https://pan.baidu.com/s/1Aa2Lu-tjFCRpsKXb23vVEw?pwd=j8o5
提取码:j8o5
复制这段内容打开「百度网盘APP 即可获取」
配置文件每个人可能有所不同,在这里就不进行复制了