1、遇到问题时候,先进入logs里面进行查看,
遇到这个错误
a、可以在Xshell里面的home目录下面,里面的logs文件夹里面找
b、可以在Xshell 的home目录下或者 虚拟机的home目录下, 用命令查看
输入 cat hadoop-aboutyun-namenode-master.log|grep ERROR 或者
cat hadoop-aboutyun-namenode-master.log
c、 只要有问题,错误,先进入到logs里面查找,但是呢,logs在哪里,
其实logs是在安装目录下, 也就是刚刚开始,将Hadoop目录解压到 data里面,
整个data下就是Hadoop的home目录。 如下图所示
d、找到logs后,就可以执行上面的a、b两步了。
e、关于上面的错误,其实网上也有类似的。
1、端口50070被占用导致namenode起不来,通过输入命令 lsof -i:50070
查看进程id,kill掉该进程然后重启hadoop即可如图
2、对虚拟机三个节点进行重启, 使用命令是 sudo reboot 。重新进入后重启集群就没有了
3、再用jps命令查看,namenode也已经正常起来了。
f、还有一个问题,就是 对整个文件进行授权,全部权限(读写可执行)
需要输入命令: sudo chmod -R 777 hadoop-2.7.4/ 就是对整个hadoop受权限
然后输入ll 命令进行查看, 对于文件里面的也可以进入到里面进行查看
对于其他节点也是,直接用ssh进行切换
g、再这次修改的过程中,有对主节点的配置文件进行修改(添加了内容)。
是通过sudo vi hdfs-site.xml 这个进行进入修改,添加了两项属性后,保存退出。
然后将他们复制或者拷贝过其他从节点。 输入命令 mv hdfs-site.xml data/hadoop-2.7.4/etc/hadoop/
因为很多文件都是在这里面的。 如图所示
接下来就可以启动集群。 (集群的启动和关闭等进程是在sbin 目录下)
从主节点 到sbin 的路径是, data/hadoop-2.7.4/ 下面就有Sbin
在进入sbin下面就有很多进程
然后就可以对集群进行启动或者关闭(先关闭再启动 )
但是生产的一般是迁移或者有问题的时候,下班的情况下才可以关闭启动的,否则影响生产
启动集群: 输入命令 ./start-all.sh
关闭集群: 输入命令 ./stop-all.sh