Hadoop负载均衡问题处理记录

1、现象:

          总共10台机器,其中2台机器磁盘使用率达到80%以上,其他机器使用率不到60%。通过du -sh查看,发现是2台机器的hdfs文件比较大。

         想通过删除hive里面在大数据表,来降低磁盘使用率,发现其他机器的磁盘使用率有所下降,但是这两台问题的结点不降反升(有实时数据写入)。这时怀疑是hdfs文件系统有问题。

 2、处理方式一:

     通过启动Balancer来平衡各个节点的文件存储。

     启动Balancer sbin/start-balancer.sh

     也是没有效果。

 

3、处理方式二

      这时通过查询datanode节点的日志,发现datanode连接namenode超时,拒绝连接。

     1)杀datanode进程

              kill -9 datanode进程号

     2)在有问题的两个结点后,启动datanode

            sbin/yarn-daemon.sh start datanode

结论:

      重启datanode结点后,2台机器的磁盘使用率逐渐恢复正常。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值