Hadoop完全分布式的集群启动与停止

目录

一、启动集群

1.配置slaves

3.启动HDFS

4.启动Yarn

二、集群启动/停止方式总结

1.各个服务组件逐一启动/停止

2.各个模块分开启动/停止(配置ssh是前提)


前面介绍了集群的单点启动,然后配置了SSH免密登录。本篇介绍集群的群起方式。

一、启动集群

1.配置slaves

(每个节点都这么做)

[root@hadoop01 ~]# vim /usr/local/hadoop/hadoop-2.7.3/etc/hadoop/slaves

默认是localhost,把它删掉,写上自己的节点。然后不要有空格或者空行!!

hadoop01
hadoop03
hadoop04

3.启动HDFS

(只需输入一次,所有节点全部启动,在任何节点输入命令都可以)

[root@hadoop01 hadoop-2.7.3]# sbin/start-dfs.sh

  ①hadoop01

  ②hadoop03

  ③hadoop04

4.启动Yarn

(必须在hadoop03启动,因为resourcemanager在hadoop03上)

[root@hadoop03 hadoop-2.7.3]# sbin/start-yarn.sh

  ①hadoop03

  ②hadoop04

③hadoop01

二、集群启动/停止方式总结

1.各个服务组件逐一启动/停止

(1)分别启动/停止HDFS组件

hadoop-daemon.sh  start / stop  namenode / datanode / secondarynamenode

(2)启动/停止YARN

yarn-daemon.sh  start / stop  resourcemanager / nodemanager

2.各个模块分开启动/停止(配置ssh是前提)

         常用

(1)整体启动/停止HDFS

start-dfs.sh   /  stop-dfs.sh

(2)整体启动/停止YARN

start-yarn.sh  /  stop-yarn.sh

    当在hadoop01输入stop-dfs.sh时候:

    ①hadoop01:

    ②hadoop03:

    ③hadoop04:

    当在hadoop03中输入stop-yarn.sh时候:

    ①hadoop03:

    ②hadoop01:

    ③hadoop04:

至此,所有节点都关闭了。Hadoop完全分布式集群已经搭建完毕。下一篇内容将对集群进行简单的测试。

  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值