1.安装环境,三个节点,在配置的时候不小心忘记配置slaves节点,导致,进行2次 namenode -format
2.进行start-dfs.sh命令时,发现主节点可以启动,但是其他两个从节点,启动以后,立刻死亡,yarn是可以正常启动的,所以定位,问题应该是出在hdfs的格式化问题上
3.原因是我们每次格式化的时候,会产生这个文件夹/tmp/hadoop-hadoop/
4.我们可以将这个文件夹删除,这里注意!!每个节点上都要删除
5.我们使用命令:$ bin/hdfs namenode -format,从新进行格式化,会发现,所有的节点上又会产生这个文件夹:/tmp/hadoop-hadoop/
6.这是我们:start-dfs.sh启动,其他结点DataNode正常启动。