第一次格式化dfs后,启动并使用hadoop,之后如果再次重新执行了格式化(hdfs namenode -format)
start-all.sh启动时就会遇到datanode无法启动的问题,通常情况是datanode的clusterID 和 namenode的clusterID 经过再次格式化后已经不匹配
解决方案:
修改datanode里VERSION文件的clusterID保持和namenode的VERSION中的clusterID一致即可
第一次格式化dfs后,启动并使用hadoop,之后如果再次重新执行了格式化(hdfs namenode -format)
start-all.sh启动时就会遇到datanode无法启动的问题,通常情况是datanode的clusterID 和 namenode的clusterID 经过再次格式化后已经不匹配
解决方案:
修改datanode里VERSION文件的clusterID保持和namenode的VERSION中的clusterID一致即可
转载于:https://www.cnblogs.com/ultimateWorld/p/9681949.html