1、停掉hdfs
sbin/stop-dfs.sh
2、删除每个节点中的data、logs目录
rm -rf data/ logs/
3、格式化hdfs
hdfs namenode -format
4、启动hdfs
sbin/start-dfs.sh
5、启动yarn
sbin/start-yarn.sh
原因是hdfs每次启动后会在
/opt/module/hadoop-3.1.3/data/dfs/name/current
目录下生成VERSION文件,内容如下
其中namespaceID会和datanode进行绑定,每次新开机会生成不同的namespaceID