kettle将本机文件上传到HDFS

kettle将本机文件上传到HDFS

如果用的是apache的Hadoop的话选择Cloudera Hadoop

**1、**将NODE02的core-site.xmlhdfs-site.xml放入
data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\cdh510
data-integration——Kettle的安装路径

**2、**启动Kettle(即Spoon.bat)新建一个作业

新建作业

3、点击主对象树,并添加一个Hadoop clusters

添加Hadoop cluster

**4、**输入对应的参数
这里需要对hosts(C:\Windows\System32\drivers\etc\hosts)进行过修改才可以输入NODE02
配置参数

点击测试如果结果是下面这样就成功连上HDFS
测试链接

**5、**在HDFS上创建一个kettle文件夹并给予权限

hdfs dfs -mkdir /kettle
hdfs dfs -chmod 777 /kettle

6、点击核心对象里的Big Data在主页面上拖入Hadoop Copy Files

右键Hadoop Copy Files并点击编辑作业入口

拖控件

**7、**进行一些配置

  • 源文件/目录这一项配置的是想要上传的文件的路径
  • 配置完成点击确定

简单配置

8、核心对象通用下拖入START,然后按住Shift连接到Hadoop Copy Files,执行即可

START执行成功效果

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值