hadoop集群崩溃,集群配置不对处理方法

hadoop集群崩溃,集群配置不对处理方法

1.集群崩溃

例如不小心杀死某个进程,某个进程没有启动。但是已经初始化过了,这时你就算是更改对了集群配置文件也不会初始化成功。应为logs这个目录中记录了版本号。
或者是集群配置跟你的集群启动的不对,这里肯定是配置文件出了问题,要从新去需改配置文件。

2.解决办法

解决方法很简单
首先要把集群给关闭掉
使用这个命令关闭集群

sbin/stop-all-sh

确保所有的进程的关闭了

jps

jps查看集群是否关闭
关闭了之后会执行会只显示jps这一个进程
关闭之后再去把hadoop文件中的data目录和logs目录删除

rm -rf data logs

确保每台机子都已经删除
删除之后去解决配置所带来的问题
因为集群启动失败或者集群配置不对基本上就是hadoop的四个配置文件出了问题。

接下来重新初始化

 hdfs namenode -format

这里并不是解决配置问题,初始化过的集群不能多次初始化,这里主要是解决集群初始化后,集群仍然出问题,修复好这些问题要进行的步骤。

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值