hadoop的datanode重新加载失败 解决步骤

笔者使用的是基于虚拟机的hadoop分布式安装,

由于关闭datanode和namenode的顺序不恰当,

所以经常会出现datanode加载失败的情况。



本人的解决方法适用于首次已经成功启动整个集群,但是由于不正常的

操作造成第二次无法正常启动。

首次的启动失败可能原因有很多:可能是由于配置文件错误写入造成的,或是

由于ssh无密码登陆配置错误造成。


而第二次的错误原因与首次启动的有一些区别,排错重点应该集中在程序在运行中的

一些动态加载而生成的文件上,笔者要讨论的是第二种情况:


 大多原因就是因为hadoop的datanode的VERSION文件中的namespaceID

与namenode中的VERSION文件中的namespaceID

二者出现不一致的情况。

而namespaceID的生成笔者推断应该是在执行:hdfs namenode -format 这个命令的时候生成的。


 



解决步骤如下:


1,首先停掉namenode上相关的进程:切换到hadoop的/sbin目录下:

sh  stop-dfs.sh

sh stop-yarn.sh


2,切换到hadoop的相应/current目录下

将current下的所有文件清除。


3,将datanode与namenode的/current 下VERSION等相应文件文件清除后,


回到namenode上,执行hsfs namenode -format命令,


接着切换到namenode的hadoop的/sbin目录下:

执行sh start-dfs.sh

sh start-yarn.sh

(旧版本的mapre  被新版本的yarn所替代,命令上多少有些不同)


既可以看到相应的节点成功加载。



相应的思想就是,当出错时,清除掉一切干扰思路的文件,然后整理思绪,重新开始,

这样要远比在原地徘徊要好。


(由于我们在配置文件中指明的文件夹只有  hdfs tmp log,


 所以其余的文件也好文件夹也好都是动态


执行脚本生成创建的,删除之后只要hadoop整个系统可以工作就会生成,即便错删,


VM的 snapshot 也会拯救这个世界。)


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值