hadoop集群启动(start-all.sh/start-dfs.sh),datanode无法启动/子节点机器jps无法显示datanode,解决方向:

注意检查日志信息,英文又不是读不懂,基本可以明确问题方向!

1. 在网络配置没有问题,没有报错,master结点jps能够正常启动,且有datanode显示,但是子节点未成为datanode

start-all.sh或是start-dfs.sh,会产生简单的日志信息:

$机器地址(此处应该为master)$,starting namenode......

$机器地址(此处应为slave机器名称)$,starting datanode......

......

注意观察$机器地址$是否为指定slave机器,具体文件在$HADOOP_DIR_DIR$下的slave文件,文件内容应为子节点主机名

 

2. ssh相关出现报错,说明主机无法连接slave机器

检查ssh设置流程是否出错,然后ping slave机器,检查能否ping通,注意hosts文件是否正确

 

3. Datanode的clusterID 和 Namenode的clusterID 不匹配

此问题对应的状态应该是master机器启动后,jps下无法显示datanode

https://blog.csdn.net/birduncle/article/details/88902171

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值