一、先删除配置路径下的残留文件
进入Hadoop安装目录先找对应路径 /etc/hadoop/
1.vi core-site.xml 删除temp文件
2. vi hdfs-site.xml 删除datanode、namenode文件
3.删除日志文件
rm -rf /export/servers/hadoop-2.7.5/namenode/
rm -rf /export/servers/hadoop-2.7.5/datanode/
rm -rf /export/servers/hadoop-2.7.5/logs/
rm -rf /export/servers/hadoop-2.7.5/tmp/
--以上命令每台机器都执行
二、创建刚刚删除的配置文件
mkdir /export/servers/hadoop-2.7.5/tmp/
mkdir /export/servers/hadoop-2.7.5/logs
mkdir /export/servers/hadoop-2.7.5/datanode/
--以上命令每台机器都执行
mkdir /export/servers/hadoop-2.7.5/namenode/
--只有主节点Node01执行
--Node03没有namenode就不用执行创建namenode目录
三、启动journalnode、ZooKeeper
如果不启动journalnode,初始化时会出现拒绝连接的错误提示
1.启动ZooKeeper--node01\02\03
zkServer.sh start
2.启动JournalNode--node01\02\03
hadoop-daemon.sh start journalnode
四、在主节点(Node01)执行格式化命令
hdfs namenode -format
五、NameNode同步
--在虚拟机Node_01中的NameNode主节点执行初始化命令后,需要将元数据目录的内容
--复制到其他未格式化的 --NameNode备用节点(虚拟机Node_02)上,
--确保主节点和备用节点的NameNode数据一致,将NameNode主节
--点元数据目录的内容复制到NameNode备用节点的元数据目录中
scp -r /export/servers/hadoop/namenode/ root@Node02:/export/servers/hadoop/namenode
六、启动集群
3.启动HDFS---node01
start-dfs.sh
4.启动Yarn--node01
start-yarn.sh
5.虚拟机Node_02开启ResourceManager备用节点
yarn-daemon.sh start resourcemanager