hadoop集群无法启动datanode节点

我遇到的这种问题是由于我多次格式化namenode造成的,后来启动hadoop集群namenode、SecondaryNameNode都起来了,然后到datanode节点执行jps指令,发现所有的datanode节点都没有起来。

我的解决办法看datanode节点日志:

java.io.IOException: Incompatible clusterIDs in /usr/hadoop/storage/hadoop-2.2.0/hdfs/data: namenode clusterID = CID-6c7f7e70-34ae-4d6d-80e0-7ff3f2bed9a5; datanode clusterID = CID-abba31cb-5e0d-4ea1-83ba-bcc36f0f84a6
 at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:391)
 at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:191)
 at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:219)
 at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:837)
 at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:808)
 at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:280)
 at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:222)
 at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:664)
 at java.lang.Thread.run(Thread.java:724)

发现应该是clusterID 和namenode的clusterID 不一致造成的,后来到namenode节点,找到 用来存放文件系统元数据文件夹:   
我的路径是:【/usr/hadoop/storage/hadoop-2.2.0/hdfs/name/current/】 ,在其下面有标志版本的 VERSION文件,打开找到对应的clusterID,然后修改各个datanode节点的【/usr/hadoop/storage/hadoop-2.2.0/hdfs/data/current】下的各个 VERSION文件clusterID,重新启动集群,正常启动。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值