记一次DataNode节点数据磁盘爆满的问题

起因:ambari中其中一个节点datanode宕机,后台发现该节点突然数据量大增,超出其他节点数据大小
排查:在ambari上启动DataNode节点,不生效,后台查看日志发现盘容量不足。df -h 查看 /opt下磁盘空间不足,但是DataNode不应该只有一块数据盘,因此查看状态良好的其他DataNode节点磁盘挂载情况,发现其他节点均挂载5块磁盘 /data1…/data5,问题出来了,问题节点的磁盘挂载数量不对,导致数据增加的后磁盘爆满导致节点启动不成功。
解决:因为是生产环境,所以不能直接做删除节点处理,解决步骤如下:
1、在ambari上更改数据目录,将/opt/xxx 路径下的目录全部改为/data1/xxx,/data2/xxx…/data5/xxx
2、重启集群
3、退役单盘/opt的DataNode节点
4、删除退役的节点

至此,问题解决!

总结:集群搭建之前要确保环境信息一致,并认真做出规划和记录

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
HDFSDataNode节点之间的数据不均衡指的是在HDFS集群中,不同的DataNode节点存储的数据量不一致。这可能导致某些节点负载过重,而其他节点负载较轻。 导致数据不均衡的主要原因有以下几点: 1. 初始复制:当数据进入HDFS时,会将其初始复制到不同的DataNode节点。由于网络延迟或节点性能差异等原因,可能导致某些节点复制的数据过多,而其他节点复制的数据较少。 2. 数据块移动:当节点故障或离线时,HDFS会将其上存储的数据块移动到其他健康的节点上。这个过程可能导致一些节点存储的数据块数量过多,而其他节点数据块较少。 为了解决数据不均衡的问题HDFS采取了一些策略: 1. 副本平衡:HDFS会定期检查集群中各个节点上的数据块数量,并采取副本平衡的措施。这意味着将数据块从负载过重的节点移动到负载较轻的节点上,以实现数据均衡。 2. 块调度:HDFS的块调度器会根据各个节点上的剩余存储空间以及网络带宽等因素,决定将新的数据块复制到哪些节点上,以实现负载均衡。 3. HDFS管理员操作:HDFS管理员可以手动干预,将一些数据块从负载过重的节点移动到其他节点上,以实现数据均衡。 综上所述,数据不均衡是HDFS集群中的一个常见问题。通过副本平衡、块调度和管理员操作等策略,HDFS可以实现数据的均衡分布,提高数据的可靠性和性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值