hadoop启动时,datanode在其他节点启动不了

首先查看自己namenode节点所在的目录,这里是运行时产生的文件存储目录。cd hadoop-2.7.2/data/tmp/dfs,会看到data和name

 

两个文件夹,将两个文件夹下的current目录下VERSION进行比较。

clusterID不一样的原因:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(bin/hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。

解决方法:

首先删除datanode的data/,logs/,删除之前要将所有的进程(jps查看)关闭再删。然后需要去namenode的所在节点(本案例是在hadoop102)格式化namenode

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值