网上找过一些资料 。
对于这一错误的主要解决方法是在两个方面。
1 防火墙
我使用的 ubuntu 关闭 防火墙 sudo ufw disable 。这个我前面配置时 已经关闭了 ,而且这个防火墙默认是关闭的 。 不过最后在试一试 , sudo ufw statu 查询状态 ,这个也是大部分小白的错误。
2 hosts 文件
这个是在配置ip 地址错误, 在 127.0.0.1 后添加了自己的用户名等。
这个是我的配置文件
3 文件冗余问题
这个就是我的问题 , 因为之前我配置过一次 fs.defaultFS hdfs://master8020 ,之后 又改成 hdfs://master:9000
然后就直接格式化了, 后来发现 节点连接不上了 。试了上面两个方法。都不好使。
之后发现hadoop namenode -format 可能 不会重新初始化一些文件后,猜测可能是新接口 旧文件中接口不匹配的问题 。
我将 core-site.xml 中配置的 hadoop.tmp.dir 路径下的 文件删除了 。
还有 hdfs-site.xml 中配置的 dfs.namenode.name.dir 下 的 name 和 dfs.datanode.data.dir 下的 data 文件夹里的文件删除。
最后 将 hadoop 中 logs 中的日志文件删除 ,这是为了更好查看日志文件 。 可以随意了 。
然后我重新格式化了hdfs : hadoop namenode -format
然后 重亲启动 就成功了。
可以通过 netstat -ntlp 查看端口。