1:nodemanager连接不上resourcemanager, 清除每个nodemanager的用户缓存
在每一个NodeManager节点上删除该用户的缓存目录,对于用户hdfs
,是/data/data/yarn/nm/usercache/hdfs
。该缓存目录在集群进入Kerberos状态前就已经存在了。例如当我们还没为集群Kerberos支持的时候,就用该用户跑过YARN应用。也许这是一个bug
2:使用 hdfs/namenode01@xxxCOM 账户建立的账户才能访问hdfs账户下的权限,keytab路径在每个节点的/var/run/cloudera-scm-agent/process/xxx-hdfs-NAMENODE
3:经过hue提交的yarn任务,admin账号不存在,则在每个yarn节点(resource and node)新建admin账号,分在hadoop组下
- useradd admin
- vim /etc/passwd
- 在这个用户加上:/sbin/nologin
-
gpasswd -a admin hadoop
碰到运行的spark任务,写job history路径没有权限,通过 hdfs dfs -chmod 770 /user/sparkHistory 改变权限
4: kerberos 常用命令:
- kadmin.local kdc管理员命令,可新建用户,修改用户,删除 ,查看所有用户(listprincs)等等
- kinit 切换用户,可用-kt 指定 keytab切换用户
- klist -kt 查看当前用户