强制格式化hadoop,清除HBase数据

自己配置的Hadoop+Hbase集群,之前正常运作,向集群中导入了120G的数据;隔了一段时间在此往里面导入数据,各种出错,最明显的就是某个节点的regionserver自动关闭,随之而来的就是其他节点也相继自动关闭,但HMaster运作正常。作为新手,日志看不懂,百度google不到问题所在,无奈之下,只能强制格式化hadoop,清除HBase数据,从零开始:

1、删除各个节点中hdfs目录下的data文件夹和name文件夹里面的内容

2、删除部署了zookeeper的version文件夹

3、删除各个hadoop指定的tmp目录文件里的内容

4、格式化hdfs,使用命令hadoop namenode -format

5、重新启动hadoop和hbase

重启之后,hadoop正常,hbase的regionserver总会异常自动关闭,使用命令hbase-daemon.sh start regionserver之后,重新启动集群,又莫名的可以正常使用集群了,费解,这里记录一下,继续学习中~~

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值