一、关闭: 1.stop-hbase.sh 2.stop-yarn.sh 3.stop-dfs.sh 需要查看datanode,namenode,journalnode是否都关闭了。 4.hadoop-deamon.sh stop zkfc(所有namenode节点) 二、启动: 1.启动zookeeper: zkServer.sh start 2.建立zookeeperfailoverController的znode节点,为双namenode切换做好准备: bin/hdfs zkfc –formatZK (第一次,非namenode上执行) 3.开启journalnode,准备同步namenode之间的数据: sbin/hadoop-daemon.sh start journalnode 4.初始化JournalNode中的数据,把一个非HA集群转成HA集群: bin/hdfs namenode -initializeSharedEdits (第一次,namenode上) 5.格式化集群c1的一个NameNode: bin/hdfs namenode -format -clusterId c1 (第一次) 6.sbin/hadoop-daemon.sh start namenode 7.另外一个namenode节点执行命令,复制第一个namenode的数据: bin/hdfs namenode -bootstrapStandby (第一次) 8.两个namenode分别启动ZooKeeperFailoverController,使其中一个namenode变成active状态,并且自动故障切换 sbin/hadoop-daemon.sh start zkfc