主页有完整的hadoop安装教程,自行查看
互联网搜集:
第一种可能出错的原因及解决方法:多次初始化
这个问题一般是由于两次或两次以上的格式化NameNode(hadoop namenode -format
)造成的,有两种方法可以解决
第一种方法是删除DataNode的所有资料:
即删除你存放namenode文件的地方:我这里放在了data目录下面(对于初学者可以及将集群中每个datanode的data/hadoop/hdfs/data/current中的VERSION删掉,然后执行hadoop namenode -format
初始化namenode),这种方法还是比较容易接受的。推荐!!
第二种方法是修改每个DataNode的namespaceID(位于/hdfs/data/current/VERSION文件中),或修改NameNode的namespaceID(位于/hdfs/name/current/VERSION文件中),使其一致。
第二种可能出错的的原因及解决方法:权限问题
将data目录权限赋予当前用户:chown -R zhangyu:zhangyu /data/ (我的用户名为zhangyu)
我的解决方法:
直接将data目录下的文件删除,重新初始化namenode,重启hadoop
cd /data
rm -rv * (删除当前目录下所有文件,-rv递归删除并且有提示删除信息)
cd /opt/hadoop/bin (我的hadoop存放在opt文件里面)
hadoop namenode -format (初始化namenode)
cd /opt/hadoop/sbin
./start-all.sh (重启hadoop)
jps (查看所有节点)
至此 ,over!!
当然,还会有很多其他原因导致无法启动namenode节点
比如,当你真的搞不好的时候,你可以重启一下你的机器
然后他就莫名其妙的好了。。。
是不是感觉很扯淡
其实这里存在着一定的学问,咱也不深究了(咱也不懂)!!