hadoop多次格式化解决办法

hadoop首次启动需要格式化,这时若是因为一些原由导致格式化不止一次,就会导致主点之间互相不识别,就会导致一些节点不会启动(如图是没问题的)

方法

一.删除配置文件core-site.xml 和hdfs-site.xml中指定目录下的文件(在如例地找    /root/wwr/hadoop-3.1.4/etc/hadoop)

1.删除 hadoop.namenode.dir、hadoop.datanode.dir和hadoop.tmp.dir所指目录里的文件

3.删除 dfs.namenode.dir和dfs.datanode.dir所指目录里的文件

rm -rf name

rm -rf data

4.删除logs日志文件和tmp缓存文件

rm -rf logs

rm -rf tmp

5.重新格式化

hdfs namenode -format

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值