出现以下hdfs数据全为0的原因和不报告所有节点的信息,出在namenode和datanode启动id不一致,这导致的原因大部分都源于不止一次的进行Hadoop系统格式化操作。
问题截图↓
在hadoop文件目录有你自己新创的dfs文件,每次格式化,里面name文件存储的namenode的clusterID就会发生改变,而datanode的clusterID在第一次格式化后就会确定下来,重复的格式化操作,会导致namenode的clusterID和datanode的clusterID不一致,这样就会导致hdfs不能识别datanode。
我们需要做的就是,在主节点namenode下找到/hadoop/name/curremt/这个目录,利用编辑器打开下面这个VERSION文件
主节点目录↓
主节点VERSION文件↓
然后将里面的clusterID这行复制,然后去到所有从节点的/hadoop/tmp/dfs/data/current/目录中,同样将目录中的VERSION文件利用编辑器打开,将其中clusterID用主节点的clusterID覆盖
从节点目录↓
从节点VERSION文件↓
本次笔记分享到此结束,谢谢大家阅读!!~~