针对该问题,我查找了网上许多的解决办法,试过了挺多,但不能解决,下面说一下我的做法:
第一步:我将系统重启了,进行一次系统的初始化(感觉能是namenode、datanode、secondnode它们初始化了)
第二步:首先是直接运行“stop -all.sh”,把以上说的三个节点全部关掉。
第三步:把core-site.xml 配置中事先设置的hadoop.tmp.dir文件路径中tmp内的文件全部删除
第四步:最后一步,就是进行启动了;首先重新初始化“bin/hdfs namenode -format”(需在hadoop解压之后的文件运行命令窗口,本人的是在hadoop-2.10.0下运行),然后“sbin/start-dfs.sh”,启动三个节点;最后“jps”一下,大功告成,三个节点完美启动。