hadoop集群启动时活动节点只启动了一个

hadoop集群启动时活动节点只启动了一个

今天早上启动集群的时候发现自己的集群有一个节点的datanode启动不起来,想到昨天都能启动,怎么突然就启动不起来了,看了很多这个博客都是说这个防火墙没有关闭,跑去查看这个防火墙,是关闭状态啊,又去格式化namenode发现都不行,回去翻看配置文件才发现这个core-site.xml文件的配置不见了,是克隆的前一台虚拟机,前面都有配置后面不知道为什么突然就没了,配置完成后启动hdfs查看这个web页面发现只有一个活动节点(这个节点时不时还会变化),看这些进程已经启动了的,这个是因为节点的datanode内容冲突了,导致这个节点不断闪现,将各个节点的data/以及logs/文件,格式化namenode bin/hdfs namenode -format我的这个文件是放到/opt/module/hadoop-2.7.2/tmp/dfs下面的
在这里插入图片描述
具体查看配置文件这里就是这个文件的位置了
到hadoop-2.7.2/etc/hadoop目录下
cat core-site/xml
在这里插入图片描述
格式化完成之后查看主节点的/opt/module/hadoop-2.7.2/tmp/dfs路径下只会出现name/文件,启动hdfs进程的时候才会出现data/,完成不要将data节点复制给其他节点,各个节点上的data只有VIERSION中的clusterID一样其他的都有区别的,弄成一样就会导致集群节点的互挤的现象。

上面这个方法就是通过格式化将所有节点的datanode文件重置。按理说也可以这样将hdfs的进程关闭将所有节点的data/与logs/删除然后再启动hdfs进程,刷新namenode hdfs dfsadmin -refreshNodes,但我这样弄了导致一个活动节点都没了哈哈哈,可以先试试这个

在集群的基础上新增节点将克隆的机器的data与logs文件删除启动datanode节点就可以了,然后在主节点给设置给免密就可以群起了。

  • 4
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值