kettle采用Hadoop Copy Files出现权限不足的问题

在使用Kettle进行数据处理时,遇到Hadoop Copy Files步骤权限不足的问题。尝试了修改Hadoop配置文件、目录权限以及设置Kettle内部变量,最终通过chmod 777授权解决了问题,但导致目录所有者变为当前用户。当执行SQL truncate table后,目录权限会恢复,寻求更佳解决方案。
摘要由CSDN通过智能技术生成

kettle设计如下:

测试例子说明:

SQL控件,是直接连接HIVE环境,truncate table table;


Hadoop Copy Files 是拷贝ETL服务器一个文件到对应的hadoop目录下,也就是HIVE表所在的表目录



Hadoop Copy Files 设置如下:






执行job,提示权限不足:

2014/03/20 11:
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值