这个异常困扰了我好长时间,发现大多是不细心造成的。 我使用以下两步解决了我遇到的问题。
首先:一定要保证节点上的防火墙都是关闭状态的。)如果没有使用如下命令关掉:(参考http://jiajun.iteye.com/blog/624449)
service iptables stop
chkconfig iptables off
其次:可能datanode的id冲突造成的。
先将然后分别在namenode节点上启动stop-dfs.sh ,在job tracker 节点上启动stop-mapred.sh。
hadoop.tmp.dir(具体的看你自己的core-site.xml配置文件) tmp目录下的数据都删除,重新hadoop namenode -format ,
然后分别在namenode节点上启动start-dfs.sh ,在job tracker 节点上启动start-mapred.sh