周二的晚上=素材爆棚时
我…在解决这个问题的时候左弄弄右弄弄被自己解决了,详细步骤也无法给出。
(报错的截图没存下来,但是由于一系列神奇的操作,文字部分保留了)
根据参考和老师所说的,总结如下:
-
看自己是否关闭防火墙了,防火墙没关可能导致这个原因(之前大概是,大数据第三节课有说过方法,可以去看一下)
-
在core-site.xml中没有配置hadoop运行时产生的文件的存储目录
如果上述都没问题的话,有可能是使用hadoop namenode -format格式化时格式化了多次造成那么spaceID不一致造成的
这时候就需要停止集群 stop-all.sh
然后删除在hdfs中配置的data目录(就是在core-site.xml中配置的hadoop.tmp.dir对应的文件)下面的所有数据rm -rf /home/user1/hadoop2.7/hadoopdata/*
(注意这里的目录就是你core-site.xml中配置的hadoop.tmp.dir对应的目录)
接着重新格式化namenode(需要切换到bin目录)./hadoop namenode -format
最后重新启动hadoop集群再操作就可以啦