阿里云服务器搭建Hadoop确实有一些坑,以下进行一个错误总结记录 :
!!注意:很多错误应去查看相应节点hadoop home下logs文件夹的内容,看具体报错原因
1. Incompatible clusterIDs
大致意思是说namenode和datanode的clusterIDs不一致,出现这个的原因应该是多次的hdfs namenode -format。
解决办法1:找到从节点Hadoop home目录的datanode的current文件夹,并删除(图中只展示如何找到,删除可使用rm命令)(本人未尝试)
解决办法2:修改datanode的VERSION文件中出clusterID与namenode的VERSION文件中的clusterID一样,先查看namenode的VERSION中的clusterID,再去从节点进行修改
首先主节点的Hadoop home里查看:
其次从节点在Hadoop home 的datanode中修改(data_1和data_2都修改)
(tmp中也有current VERSION文件夹,暂未发现有影响,如果上述修改不行可尝试修改tmp)
2. Excluding datanode 119.23.249.50:50010
原因之一是阿里云从节点服务器没有开放50010端口。
解决:在控制台的安全组界面配置规则。
3. Cannot assign requested address
一个坑,参考http://blog.csdn.net/dongdong9223/article/details/81255713
意思就是namenode中的/etc/hosts文件中namenode的ip应写内网ip,其余为外网ip。datanode中的/etc/hosts文件中自身的ip应写内网ip,其余为外网ip。