最近因为公司业务需要,刚刚接触了kettle.这不看不知道,一看才发现kettle的功能是在是太强大了,让我有种相见恨晚的感觉。由于主要是应用kettle与hadoop集群和hive连接进行数据处理。所以这里简单叙述下kettle与hadoop集群连接时的大致步骤:
1.双击kettle(即data-integeration)目录下的spoon.bat,启动kettle
2.kettle启动后,新建一个作业(job)。可以命名为load_hdfs
3.在load_hdfs中有个Hadoop cluster子项,右键->New cluster,创建一个新集群
4.在新集群创建面板上填写好各个组件的IP+Port等信息
5.点击“测试”按钮,测试新集群能否正常连接
一般若你的kettle刚安装还没有配置过的话,这里会报错显示连接失败。这是正常的,接下来我们就要在kettle包里配置一下相关信息
6.首先到{$KETTLE_HOME}/plugins/pentaho-big-data-plugin/目录下找到名为plugin.properties的配置文件,并用notepad++(不一定非得用notepad++,只要是能打开此类文本的编辑器都可以)打开。文件位置和内容如下图所示: