CDH HDP ambari CM问题合集,持续更新

一问题现象:

namenode 数据块丢失

NameNode Blocks Health

Total Blocks:[5247], Missing Blocks:[4677]

问题原因:

datanode 或namenode数据 丢失 冗余副本数据不一致造成

解决办法:

删除丢失模块元数据,6小时后数据会自动同步

相关指令:

查看丢失数据块:hdfs fsck /
简单删除丢失块命令行
for (( i=0; i<100; i++ ))
do
    hdfs fsck / | grep 'MISSING' | head -n 1 | cut -d : -f 1 | xargs hdfs fsck -delete
done

问题现象:如下图

二 问题现象:

namenode datanode journode数据不对齐

三 问题现象:

hdfs 访问权限不够

Permission denied: user=root, access=WRITE, inode="/":hdfs:supergroup:drwxr-xr-x

Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=root, access=EXECUTE, inode="/tmp/hive/root":hdfs:supergroup:drwx------

问题原因:

访问权限不足,导致写入失败

解决方案:

授予用户目录权限

执行指令:

 1 给特定目录授予用户权力,该场景为该目录

sudo -u hdfs hadoop fs -chown -R deploy /user/deploy/

其中,deploy为待添加权限用户

 2 添加用户到supergroup

具体原理:

Hadoop本身的用户和组的关系,都是同步Linux系统中的,但是HDFS和Linux的超级用户组又有一点差别,HDFS中的超级用户组是supergroup,但是Linux中默认是没有supergoup这个组,这个时候只需要在Linux中增加supergroup这个组,然后将要在HDFS中加入到supergroup中的用户加到这个组中,再同步HDFS用户和组即可。


具体指令:

1、在Linux执行如下命令增加supergroup
groupadd supergroup
2、如将用户yarn增加到supergroup中,再执行:
usermod -a -G supergroup yarn
3、同步系统的权限信息到HDFS:
su - hdfs -s /bin/bash -c "hdfs dfsadmin -refreshUserToGroupsMappings"

四 hdfs开启高可用

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值