启动Hadoop没有dataNode进程的解决办法

1.问题现象:

在启动Hadoop时,通过jps目录发现没有datanode进程。

[root@hadoop ~]# jps
1792 SecondaryNameNode
1937 Jps
1650 DataNode

2 解决方案:clusterID不匹配导致的问题

网上搜了下,网上的说法都是由于进行hadoop格式化的时候没有事先结束所有进程,或者多次进行了format导致的datanode的clusterID 和 namenode的clusterID不匹配,从而在启动后没有datanode进程。

解决方法有两种:
方案一: 保留现有数据
用NameNode节点的~/dfs/name/current/VERSION 中的namenode的clusterID替换所有datanode节点机器中~/dfs/data/current/VERSION中的clusterID。
重启启动hadoop:start-all.sh
这种方式不影响现有的数据,避免了重新的格式化。

方案二: 重新格式化
执行./stop-all.sh关闭集群
删除存放hdfs数据块的文件夹(hadoop/tmp/),然后重建该文件夹
删除hadoop下的日志文件logs
执行hadoop namenode -format格式化hadoop
重启hadoop集群

  • 6
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值