hadoop2.2.0 x86_64问题总结(持续更新):
前提,hadoop正常启动,jps查看,所有都正常。
1.live node 为0
2.livenode 的个数和实际启动的datanode的个数不一致问题。
3.eclipse中一直提示 Call From xxx to xxx failed on connect
4.DFS location中显示文件夹个数为0
(1)本来就没有文件.50070网页上查看dfs filesystem,如果报错,还是live node 问题。
(2)有文件,还是因为live node问题。livenode问题解决后,刷新,就可以看到文件夹了。
显示为0时,可以尝试upload 文件,假如发现上传的文件的大小都是0.0b。应该就是有问题的。
5.网页查看各类信息
master's ip:50070 dfs
master's ip:9001 secondaryNameNode status
前提,hadoop正常启动,jps查看,所有都正常。
1.live node 为0
Answer:
stop-all后。删除dfs.namenode.name.dir和dfs.namenode.data.dir设置的两个文件夹下的内容。重新formate,start。
2.livenode 的个数和实际启动的datanode的个数不一致问题。
Answer:
所有slave中,配置core-site.xml文件中的fs.default.name中不应改写localhost。要写namenode的实际ip。
3.eclipse中一直提示 Call From xxx to xxx failed on connect
Answer:
run configration,检查run configuration的arguments的值。要与core-site.xml中的fs.default.name的值设置的ip一致。(一个是实际ip、一个是localhost也不行。)
4.DFS location中显示文件夹个数为0
(1)本来就没有文件.50070网页上查看dfs filesystem,如果报错,还是live node 问题。
(2)有文件,还是因为live node问题。livenode问题解决后,刷新,就可以看到文件夹了。
显示为0时,可以尝试upload 文件,假如发现上传的文件的大小都是0.0b。应该就是有问题的。
5.网页查看各类信息
master's ip:50070 dfs
master's ip:9001 secondaryNameNode status
master's ip:8088 cluster
6.当jps查看到datanode无法启动: