hadoop——HA集群部署

各节点布置

主机IP(需要根据自己网段进行相应修改)主机名描述HDFSYARN
192.168.209.150master主节点

NameNode

DataNode

ResourceManager

NodeManager

192.168.209.150slave1备用节点

NameNode

DataNode

ResourceManager

NodeManager

192.168.209.150slave2备用节点DataNode

ResourceManager

NodeManager

目录

一.环境准备

二 .设置网卡,主机名,密钥,映射

1.设置网卡

2.设置主机名

3.设置密钥

4.设置映射

三.配置JDK

1.安装JDK

2.配置环境变量

3.验证环境变量是否设置成功

 四.安装ZOOKEEPER并进行配置

1.上传ZKEEPER到/usr/local并进行解压

2.配置zookeep

3.配置zookeeper环境变量

4.启动zookeeper服务(每个节点都执行该步骤)

五. Hadoop文件配置 (上传解压Hadoop的步骤省略)

1.添加环境变量

2.修改core-site.xml

3.修改hdfs-site.xml

4.在hadoop-env.sh添加内容

5.配置 yarn-site.xml文件

6.配置mapred-site.xml文件

7.配置 slaves文件

8.分发hadoop文件到:salve1节点slave2节点

六.启动journalnode服务(三个节点都需要执行此步骤)

1.启动命令

2.检查是否启动成功

 七.启动HDFS集群

1.格式化NameNode(只需要在master节点执行)

2.单独启动NameNode

3.namenode主从信息同步(在slave1执行)

4.格式化zookeeper(只需要在master节点执行)

5.启动hadoop

八.验证HA

​编辑


一.环境准备

JDK, ZKEEPER ,HADOOP

二 .设置网卡,主机名,密钥,映射

1.设置网卡

首先win+R输入cmd进入命令窗口,然后输入ipconfig获取VMnet8IP信息

 输入vi /etc/sysconfig/network-scripts/ifcfg-ens33命令配置网卡

重启网卡:systemctl restart network后拼一下百度验证是否设置成功

 2.设置主机名

输入命令:hostnamectl set-hostname master,输入之后需要exit关闭重新登录,重新登录看到主机名为master就表示成功了(我的在此之前已经设置)

3.设置密钥

ssh-keygen rsa

分发密钥到master:

 ssh-copy-id -i ~/.ssh/id_rsa.pub master执行完命令之后会需要输入该主机的密码

验证是否分发成功:


 

4.设置映射

输入命令:vi /etc/hosts

 上诉步骤都需要在master,slave1,slave2执行,主机名需要相应修改。

master网卡文件信息:

 slave1网卡文件信息:

  slave2网卡文件信息:

 验证映射是否成功每个节点互相ping(只展示一个)

 

三.配置JDK

1.安装JDK

上传JDK到/usr/local然后cd /usr/local输入以下命令:

tar -xvzf jdk-8u221-linux-x64.tar.gz

2.配置环境变量

vi /etc/profile

3.验证环境变量是否设置成功

命令:java -version (执行之前需要 source /etc/profile 更新一下环境变量)

 四.安装ZOOKEEPER并进行配置

1.上传ZKEEPER到/usr/local并进行解压

输入命令: tar -xvzf zookeeper-3.5.7-bin.tar.gz

2.配置zookeep

cd /usr/local/zookeeper-3.5.7-bin/conf进入conf目录修改zoo_sample.cfg文件为zoo.cfg

vi /zoo.cfg进行配置文件

 配置my_id文件:在zookeeper目录下新建zkDATA目录,并在目录下新建myid文件

分发jdk,zookeeper到slave1,slave2 : scp -r /usr/local root@slave1:/usr/local 、scp -r /usr/local root@slave2:/usr/local 

在master节点的myid文件添加信息:2

在slave1节点的myid文件添加信息:3

在slave2节点的myid文件添加信息:4

3.配置zookeeper环境变量

4.启动zookeeper服务(每个节点都执行该步骤)

命令:zkServer.sh start 

五. Hadoop文件配置 (上传解压Hadoop的步骤省略)

1.添加环境变量

 2.修改core-site.xml

cd $HADOOP_HOME/etc/hadoop然后vi core-site.xml进行配置

3.修改hdfs-site.xml

vi hdfs-site.xml

4.在hadoop-env.sh添加内容

5.配置 yarn-site.xml文件

6.配置mapred-site.xml文件

7.配置 slaves文件

 到此hadoopHA的文件已经配置完。

8.分发hadoop文件到:salve1节点slave2节点

scp -r /usr/local/hadoop_2.7.1 root@slave1:/usr/local/

scp -r /usr/local/hadoop_2.7.1 root@slave2:/usr/local/

因为我们只设置了master节点的环境变量因此也要把该文件分发到slave1,slave2

scp -r /etc/profile root@slave1:/etc

scp -r /etc/profile root@slave2:/etc

自行检查各节点的配置文件是否已经成功分发

六.启动journalnode服务(三个节点都需要执行此步骤)

1.启动命令

hadoop-daemon.sh start journalnode

2.检查是否启动成功

有JournalNode进程在就证明启动成功,QuorumPeerMain是zookeeper服务

 七.启动HDFS集群

1.格式化NameNode(只需要在master节点执行)

在格式化之前需要确保以下三个进程在

命令:hdfs namenode -format

2.单独启动NameNode

此步骤可能影响后面的namenode主从信息同步,启动完服务之后自行使用jps检查是否启动成功

命令:hadoop-daemon.sh NameNode

3.namenode主从信息同步(在slave1执行)

命令:hdfs namenode -bootstrapStandby

如果执行时报下图的错误:就是只在master节点启动了NameNode进程,解决这个报错的方法是在slave2节点也启动NameNode进程然后重新执行hdfs namenode -bootstrapStandby。

4.格式化zookeeper(只需要在master节点执行)

执行之前执行stop-all.sh先关掉JournalNode进程。

命令:hdfs zkfc -formatZK

5.启动hadoop

执行以上操作我们就可以使用start-all.sh启动hdfs了,启动完之后还需要检查各节点的进程信息。

master 节点:

 slave1节点:

 slave2节点:

八.验证HA

我们打开web端的页面显示是一个active一个standby。

 

我们可以kill掉正在运行的主机的NameNode看看另一台是否能自启。

 我杀掉的是192.168.209.150这台主机所以访问不了web端,但我们可以发现192.168.209.151这个web端界面已经变成(active),证明另一台主机已经能自启,至此HA部署成功。


 

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Hadoop的分布式集群部署主要涉及以下几个步骤: 1. 准备环境:首先确保所有节点都满足Hadoop的硬件和软件要求。每个节点应该有足够的磁盘空间和内存,并且安装了相应的操作系统和Java运行时环境。 2. 配置SSH免密登录:为了方便集群节点之间的通信,需要配置SSH免密登录。这样可以在不需要密码的情况下远程登录到其他节点。 3. 安装Hadoop:在所有节点上安装Hadoop软件包。可以从Apache Hadoop官方网站下载最新版本的二进制包,并解压到每个节点的相同目录下。 4. 配置Hadoop:编辑Hadoop的配置文件,包括core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml。这些配置文件定义了Hadoop的各种参数,如文件系统路径、副本数量、任务调度器等。 5. 设置主从关系:在集群中选择一个节点作为主节点(通常是NameNode),其他节点作为从节点(通常是DataNode)。主节点负责管理文件系统和任务调度,从节点负责存储数据和执行任务。 6. 启动Hadoop集群:首先启动主节点上的Hadoop服务,包括NameNode、ResourceManager和JobHistoryServer。然后按顺序启动从节点上的Hadoop服务,包括DataNode和NodeManager。 7. 验证集群:使用Hadoop提供的命令行工具,如hdfs dfs、yarn和mapred,验证集群是否正常工作。可以上传文件到HDFS、提交MapReduce作业并查看作业状态。 这些步骤只是一个基本的概述,具体的部署过程可能因为不同的操作系统、Hadoop版本和集群规模而有所不同。在部署过程中,建议参考Hadoop官方文档和其他相关资源,以获得更详细的指导和最佳实践。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值