Hadoop-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI

章节内容

上一节完成:

  • HOSTS 配置(非常重要!坑多!)
  • ROOT权限开启(重要)
  • SSH KEY 生成
  • SSH 三台云服务器 免登陆
  • 分发脚本编写和测试

背景介绍

这里是三台公网云服务器,每台 2C4G,搭建一个Hadoop的学习环境,供我学习。
之前已经在 VM 虚拟机上搭建过一次,但是没留下笔记,这次趁着前几天薅羊毛的3台机器,赶紧尝试在公网上搭建体验一下。

注意,如果你和我一样,打算用公网部署,那一定要做好防火墙策略,避免不必要的麻烦!!!
请大家都以学习为目的,也请不要对我的服务进行嗅探或者攻击!!!

但是有一台公网服务器我还运行着别的服务,比如前几天发的:autodl-keeper 自己写的小工具,防止AutoDL机器过期的。还跑着别的Web服务,所以只能挤出一台 2C2G 的机器。那我的配置如下了:

  • 2C4G 编号 h121
  • 2C4G 编号 h122
  • 2C2G 编号 h123

在这里插入图片描述
请确保上一节内容全部完毕和跑通!!!

Hadoop 分发

我们之前只配置 h121 节点的内容,但是h122h123机器上还没有环境。
需要借助我们上节的工具来完成一键分发。

rsync-script /opt/servers/hadoop-2.9.2

在这里插入图片描述
注意!!!这里只是分发过去了,但是 JAVA_HOME 和 HADOOP_HOME 环境变量等内容还是需要自己配置的!!!
注意!!!这里只是分发过去了,但是 JAVA_HOME 和 HADOOP_HOME 环境变量等内容还是需要自己配置的!!!
注意!!!这里只是分发过去了,但是 JAVA_HOME 和 HADOOP_HOME 环境变量等内容还是需要自己配置的!!!

单机启动

确保之前的所有内容都可以跑通,那么激动人心的时刻来了!!!

节点分配

这里需要再放一次节点的分配图,方便大家查看:
在这里插入图片描述
目前 登录到 h121 节点上。

初始格式化

NameNode 节点初始化,别的机器不需要执行
这步是必须的!!!
这步是必须的!!!
这步是必须的!!!

hadoop namenode -format

等待一会儿之后,如果出现如图的内容,那代表你已经顺利格式化
在这里插入图片描述
可以看到,控制台中给我们的路径:

/opt/servers/hadoop-2.9.2/data/tmp/dfs/name

可以查看一下当前初始化的结果:

cd /opt/servers/hadoop-2.9.2/data/tmp/dfs/name
ls

在这里插入图片描述

NameNode

启动最关键的节点 NameNode

hadoop-daemon.sh start namenode
jps

在这里插入图片描述

DataNode

h121h122h123都启动 DataNode

hadoop-daemon.sh start datanode
jps

h121
在这里插入图片描述
h122
在这里插入图片描述
h123
在这里插入图片描述

访问服务

顺利启动后,我们查看WEB UI界面

http://h121.wzk.icu:50070/dfshealth.html#tab-overview

在这里插入图片描述

查看 DataNode 可以看到
在这里插入图片描述

Yarn启动

节点分配

我们需要启动

  • Node Manager
  • ResourceManager
    在这里插入图片描述

h121启动

yarn-daemon.sh start nodemanager
jps

在这里插入图片描述

h122 启动

yarn-daemon.sh start nodemanager
jps

在这里插入图片描述

h123 启动

yarn-daemon.sh start nodemanager
yarn-daemon.sh start resourcemanager

在这里插入图片描述

访问服务

http://h123.wzk.icu:8088/cluster

在这里插入图片描述

集群启动

如果你已经走到了这里,真的挺不容易的!恭喜你!一切顺利!

单节点启动后,就不需要再对 NameNode 进行格式化了,先停止之前节点的服务。

停止服务

需要在 h121 h122 h123 上都执行一次!!!
需要在 h121 h122 h123 上都执行一次!!!
需要在 h121 h122 h123 上都执行一次!!!

hadoop-daemon.sh stop datanode
hadoop-daemon.sh stop namenode
yarn-daemon.sh stop nodemanager
yarn-daemon.sh stop resourcemanager

在这里插入图片描述

HDFS集群

在h121集群上进行执行!

start-dfs.sh

h121

在这里插入图片描述

h122

在这里插入图片描述

h123

在这里插入图片描述

Yarn集群

在h123集群上进行执行!

注意:NameNode 和 ResourceManager 不在同一个机器上,不能在 NameNode 节点上启动 Yarn,应该在ResourceManager上启动。

start-yarn.sh

h123

在这里插入图片描述

h121

在这里插入图片描述

h122

在这里插入图片描述

  • 17
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值