高危操作,该操作会丢失数据,生产环境谨慎使用!!!
1、关闭hdfs集群
2、格掉zk(可跳过)
hdfs zkfc -formatZK
3、删除zk上hadoop-ha(不删除也可以,保险起见,手动删除)
4、删除datanode节点上的数据目录下的文件
rm -rf /tmp/datanode/*
5、手动开启journalnode服务,需要所有的journalnode节点都开启
sbin/hadoop-daemon.sh start journalnode
6、格掉namenode主节点
hdfs namenode -format
7、将namenode元数据从active节点同步到standby节点
scp -r /tmp/namenode slave:/tmp
8、启动hdfs集群
sbin/start-dfs.sh