Hadoop集群的搭建3(很全面)

Hadoop集群的搭建3(很全面)

该文章用于记录学习过程。多余的话不多说了,如有需要请观看正文。
注:第三篇更新步骤11-13。

实现步骤如下(总):
(1)将VMWare Pro安装好并激活
(2)配置虚拟机参数
(3)安装CentOS 6.9
(4)虚拟机的克隆
(5)SecureCRT的安装
(6)系统网络配置
(7)SSH服务配置
(8)JDK以及Hadoop环境配置
(9)Hadoop集群配置
(10)格式化文件系统
(11)启动和关闭Hadoop集群
(12)通过UI界面查看Hadoop集群
(13)Hadoop集群初体验和单词统计

       本部分内容及图片均为本人亲自制作,采用一步一截图或者多步一截图方式详细记录了个人的学习和操作过程。

十一、Hadoop集群测试

1.单节点逐个启动和关闭
在主节点上执行指令启动/关闭HDFS NameNode进程;
在每个从节点上执行指令启动/关闭HDFS DataNode进程;
在主节点上执行指令启动/关闭YARN ResourceManager进程;
在每个从节点上执行指令启动/关闭YARN nodemanager进程;
在节点hadoop02执行指令启动/关闭SecondaryNameNode进程。

hadoop01
启动namenode和datanode节点

hadoop-daemon.sh start namaenode
hadoop-daemon.sh start namaenode

启动resourcemanager和nodemanager节点

yarn-daemon.sh start resourcemanager
yarn-daemon.sh start resourcemanager

关闭各个节点

hadoop-daemon.sh stop namaenode
hadoop-daemon.sh stop namaenode
yarn-daemon.sh stop resourcemanager
yarn-daemon.sh stop resourcemanager

hadoop02
启动datanode节点

hadoop-daemon.sh start datanode

启动nodemanager节点

yarn-daemon.sh start nodemanager

启动secondarynamenode节点

hadoop-daemon.sh start secondarynamenode

关闭节点

hadoop-daemon.sh stop datanode
yarn-daemon.sh stop nodemanager
hadoop-daemon.sh stop secondarynamenode

hadoop03
启动datanode节点

hadoop-daemon.sh start datanode

启动nodemanager节点

yarn-daemon.sh start nodemanager

启动secondarynamenode节点

hadoop-daemon.sh start secondarynamenode

关闭节点

hadoop-daemon.sh stop datanode
yarn-daemon.sh stop nodemanager
hadoop-daemon.sh stop secondarynamenode

2.使用脚本一键启动和关闭
在主节点hadoop01上执行指令“start-dfs.sh”或“stop-dfs.sh”启动/关闭所有HDFS服务进程;
在主节点hadoop01上执行指令“start-yarn.sh”或“stop-yarn.sh”启动/关闭所有YARN服务进程;
在主节点hadoop01上执行“start-all.sh”或“stop-all.sh”指令,直接启动/关闭整个Hadoop集群服务。

在这里插入图片描述
在这里插入图片描述

十二、通过UI命令查看Hadoop运行状态

1.C:\Windows\System32\drivers\etc
hosts文件添加

192.168.15.129 hadoop01
192.168.15.130 hadoop02
192.168.15.131 hadoop03

在这里插入图片描述

2.三台虚拟机均关闭防火墙

service iptables stop

3.并禁止防火墙开机启动

chkconfig iptables off

4.打开hdfs集群并进入网页输入hadoop01:50070查看效果

效果图如下:
在这里插入图片描述

5.打开yarn集群并进入网页输入hadoop01:8088查看效果

效果图如下:
在这里插入图片描述

十三、hadoop集群初体验

※实现单词统计功能

1.虚拟机下创建文件夹
在这里插入图片描述

2.使用命令创建一个文件夹,并查看效果

hadoop fs -mkdir -p /wordcount/input

在这里插入图片描述

3.将文件word.txt上传到hdsf

hadoop fs -put /export/data/word.txt /wordcount/input

在这里插入图片描述

4.找到并运行jar包

cd /export/servers/hadoop-2.7.4/hadoop/mapreduce/

在这里插入图片描述
5.将统计结果放到/wordcount/output下

hadoop jar hadoop-mapreduce-examples-2.7.4.jar wordcount /wordcount/input /wordcount/output

6.进入yarn集群UI界面查看进程
在这里插入图片描述
在这里插入图片描述

7.进入hdfs集群UI界面查看文件
在这里插入图片描述
8.下载目标文件并查看统计信息
在这里插入图片描述

  • 2
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

青春是首不老歌丶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值