方法一:(方法一,有一个重大缺点,就是会把你以前存放在 dfs文件下的数据都清空)
解决方法:删除master节点和slaver节点的 dfs这个文件夹
之后格式化 hadoop 到bin目录下 输入以下命令./hdfs namenode -format
问题出现的原因:当我们执行文件系统格式化时,会在namenode数据文件夹中保存一个current/VERSION文件,记录namespaceID,标识了所格式化的 namenode的版本。如果我们频繁的格式化namenode,那么datanode中保存的current/VERSION文件只是你第一次格式化时保存的namenode的ID,因此就会造成datanode与namenode之间的id不一致(频繁格式化,即执行./hdfs namenode -format,会导致那么namenode 和datanode 之间的id不一致,导致datanode启动失败