Hadoop中HDFS和MapReduce的启动问题

  当你在启动HDFS和MapReduce的时候,大家都可能习惯了,

只要在其中一台关联的虚拟机上启动,或者是在含有namenode的机器上进行启动。

启动的方法可以分别启动dfs和yarn,如start-dfs.sh,start-yarn.sh;也可以一起启动,start-all.sh。

  然后会jps查看一下启动的情况,如果你够幸运,所有的节点node和manager都会启动,

但是如果你发现,你的启动情况只有节点node启动正常,而resourceManager却无法启动。

无论你重新启动,或者是关机重启,都无法启动到resourceManager。你可能会去查看配置文件,但是

你会发现,无论你对配置文件做了些什么,似乎都起不到作用。

  那么,这么多废话后,关键来了,如何解决:

1、首先,你要清楚的知道,当初你配置文件时,resourceManager的位置是哪台机器。即value的设置。

 

2.在你设置resourceManager所在的机器上启动yarn。

 

这样才会正常生效。这个问题困扰了我三个月之久,今天终于得到解决,并对其进行了验证,验证有效。

转载于:https://www.cnblogs.com/qianshuixianyu/p/9455401.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值