集群集成Kerberos过程中遇到的坑

1、hdfs用户提交mr作业无法运行

INFO mapreduce.Job: Job job_1442654915965_0002 failed with state
FAILED due to: Application application_1442654915965_0002 failed 2
times due to AM Container for appattempt_1442654915965_0002_000002
exited with exitCode: -1000 due to: Application
application_1442654915965_0002 initialization failed (exitCode=255)
with output: Requested user hdfs is not whitelisted and has id
496,which is below the minimum allowed 1000

原因:

Linux user 的 user id 要大于等于1000,否则会无法提交Job。例如,如果以hdfs(id为490)的身份提交一个job,就会看到以上的错误信息
解决方法:

1.使用命令 usermod -u 修改一个用户的user id
2.修改Clouder关于这个该项的设置,Yarn->配置->min.user.id修改为合适的值,当前为0

2、提交mr作业时可以运行但是有错误信息

INFO mapreduce.Job: Job job_1442722429197_0001 failed with state
FAILED due to: Application application_1442722429197_0001 failed 2
times due to AM Container for appattempt_1442722429197_0001_000002
exited with exitCode: -1000 due to: Application
application_1442722429197_0001 initialization failed (exitCode=255)
with output: Requested user hdfs is banned

原因:

hdfs用户被禁止运行 YARN container,yarn的设置中将hdfs用户禁用了
解决方法:

修改Clouder关于这个该项的设置,Yarn->配置->banned.users 将hdfs用户移除

3、YARN job运行时无法创建缓存目录
异常信息:
main : user is hdfs
main : requested yarn user is hdfs
Can’t create directory /data/data/yarn/nm/usercache/hdfs/appcache/application_1442724165689_0005 - Permission denied

原因:
该缓存目录在集群进入Kerberos状态前就已经存在了。例如当我们还没为集群Kerberos支持的时候,就用该用户跑过YARN应用

解决方法:

在每一个NodeManager节点上删除该用户的缓存目录,对于用户hdfs,是/data/data/yarn/nm/usercache/hdfs

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值