Hadoop 2.x HDFS和YARN的启动方式

一.三种启动方式介绍

方式一:逐一启动(实际生产环境中的启动方式)

 
 
  1. hadoop-daemon.sh start|stop namenode|datanode| journalnode 
  2. yarn-daemon.sh start |stop resourcemanager|nodemanager 

方式二:分开启动

 
 
  1. start-dfs.sh 
  2. start-yarn.sh 

方式三:一起启动

 
 
  1. start-all.sh 

二.脚本解读

start-dfs.sh脚本:

(1) 通过命令bin/hdfs getconf –namenodes查看namenode在那些节点上

(2) 通过ssh方式登录到远程主机,启动hadoop-deamons.sh脚本

(3) hadoop-deamon.sh脚本启动slaves.sh脚本

(4) slaves.sh脚本启动hadoop-deamon.sh脚本,再逐一启动

start-all.sh脚本:

说明:start-all.sh实际上是调用sbin/start-dfs.sh脚本和sbin/start-yarn.sh脚本

三.三种启动方式的关系

start-all.sh其实调用start-dfs.sh和start-yarn.sh

start-dfs.sh调用hadoop-deamon.sh

start-yarn.sh调用yarn-deamon.sh

如下图:

四.为什么要设置ssh协议

当执行start-dfs.sh脚本时,会调用slaves.sh脚本,通过ssh协议无密码登陆到其他节点去启动进程。

为了能自动启动远程节点的进程,需要进行免密码登录。

五.采用第二种启动方式

上面已经配置好了ssh公钥登录,接下来用第二种启动方式启动

Step1:先停止所以进程(如果已经启动)

 
 
  1. [hadoop@hadoop-yarn hadoop-2.2.0]$sbin/yarn-daemon.sh stop nodemanager 
  2. [hadoop@hadoop-yarn hadoop-2.2.0]$sbin/yarn-daemon.sh stop resourcemanager  
  3. [hadoop@hadoop-yarn hadoop-2.2.0]$sbin/hadoop-daemon.sh stop datanode 
  4. [hadoop@hadoop-yarn hadoop-2.2.0]$sbin/hadoop-daemon.sh stop secondarynamenode 
  5. [hadoop@hadoop-yarn hadoop-2.2.0]$sbin/hadoop-daemon.sh stop namenode 

Step2:启动所以进程

 
 
  1. [hadoop@hadoop-yarn hadoop-2.2.0]$sbin/start-dfs.sh 
  2. [hadoop@hadoop-yarn hadoop-2.2.0]$ sbin/start-yarn.sh 


本文作者:舒运

来源:51CTO

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值