Hadoop安装配置中遇到的问题异常处理——aboutyun

1、遇到问题时候,先进入logs里面进行查看,

遇到这个错误

a、可以在Xshell里面的home目录下面,里面的logs文件夹里面找

b、可以在Xshell 的home目录下或者 虚拟机的home目录下, 用命令查看

输入 cat hadoop-aboutyun-namenode-master.log|grep ERROR   或者

         cat hadoop-aboutyun-namenode-master.log 

                                                                           

c、 只要有问题,错误,先进入到logs里面查找,但是呢,logs在哪里,

其实logs是在安装目录下,  也就是刚刚开始,将Hadoop目录解压到 data里面,

整个data下就是Hadoop的home目录。 如下图所示

d、找到logs后,就可以执行上面的a、b两步了。

 

e、关于上面的错误,其实网上也有类似的。

1、端口50070被占用导致namenode起不来,通过输入命令 lsof -i:50070 查看进程id,kill掉该进程然后重启hadoop即可如图

2、对虚拟机三个节点进行重启, 使用命令是  sudo reboot  。重新进入后重启集群就没有了

3、再用jps命令查看,namenode也已经正常起来了。

 

f、还有一个问题,就是 对整个文件进行授权,全部权限(读写可执行)

  需要输入命令:  sudo chmod  -R 777  hadoop-2.7.4/   就是对整个hadoop受权限

   然后输入ll 命令进行查看,  对于文件里面的也可以进入到里面进行查看

对于其他节点也是,直接用ssh进行切换

g、再这次修改的过程中,有对主节点的配置文件进行修改(添加了内容)。

   是通过sudo vi    hdfs-site.xml  这个进行进入修改,添加了两项属性后,保存退出。

然后将他们复制或者拷贝过其他从节点。  输入命令   mv  hdfs-site.xml   data/hadoop-2.7.4/etc/hadoop/

因为很多文件都是在这里面的。 如图所示

接下来就可以启动集群。  (集群的启动和关闭等进程是在sbin 目录下)

 从主节点 到sbin 的路径是,  data/hadoop-2.7.4/    下面就有Sbin

在进入sbin下面就有很多进程

然后就可以对集群进行启动或者关闭(先关闭再启动  )

但是生产的一般是迁移或者有问题的时候,下班的情况下才可以关闭启动的,否则影响生产

启动集群:  输入命令  ./start-all.sh

关闭集群: 输入命令  ./stop-all.sh

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值