Apache Hadoop HA集群环境搭建

NameNode 做了HAResourceManager也做了HA

1.HA集群节点概览

电脑配置不够,所以NameNode所在节点上装了DataNode,实际开发搭建的话,NameNode所在节点上不要放DataNode

注意:此处不说zookeeper的部分,上篇文章 https://blog.csdn.net/qq_33713328/article/details/88854991 已经讲解zookeeper集群的内容,此处直接使用。

节点IP节点主机名应用
192.168.183.81mycat01NameNode, NodeManager,JournalNode,DataNode,ZKFC,Zookeeper
192.168.183.82mycat02NameNode, NodeManager,JournalNode,DataNode,ZKFC,Zookeeper
192.168.183.83mycat03ResourceManager, NodeManager,JournalNode,DataNode,Zookeeper
192.168.183.84mycat04ResourceManager, NodeManager,DataNode
2.版本说明

Hadoop版本:Apache Hadoop 2.7.6

ZooKeeper版本:Apache Zookeeper 3.4.13 (在上篇集群环境搭建中已经说明)

3.下载(Hadoop)
  1. wget http://archive.apache.org/dist/hadoop/common/hadoop-2.7.6/hadoop-2.7.6.tar.gz (Apache官网)

  2. wget http://mirrors.hust.edu.cn/apache/hadoop/core/hadoop-2.7.6/hadoop-2.7.6.tar.gz (华中科技大学镜像源)

3)其他版本可以选择:http://mirrors.hust.edu.cn/apache/hadoop/core/

4.解压缩并修改配置

首先,先把压缩包放到mycat01上(随便取一台—最好能都免密到其他机器),修改文件所有者和所属组,并给所有者添加执行权限。

sudo chmod u+x hadoop-2.7.6.tar.gz
sudo chown hadoop:hadoop hadoop-2.7.6.tar.gz
[hadoop@mycat01 ~]$ tar -zxvf hadoop-2.7.6.tar.gz    # 我的直接在家目录下解压

切换到配置文件目录开始修改配置文件:

cd /home/hadoop/hadoop-2.7.6/etc/hadoop
1)修配hadoop-env.sh (这里只配置JAVA_HOME,需要设置JVM参数可绕道百度或根据提示修改)
[hadoop@mycat01 hadoop]$ vim hadoop-env.sh

修改如下:

# 修改下面一项即可,需要注意的是,即便你配置了JAVA_HOME到PATH中,这里还是需要明确全路径的
export JAVA_HOME=/opt/jdk1.8.0_73
2)修改core-site.xml
[hadoop@mycat01 hadoop]$ vim core-site.xml

修改如下:(configuration标签内部的内容

<!-- 指定 hdfs 的访问入口 命名空间 组名 通过组名hdfs://命名空间/ mkmg相当于命名空间 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://mkmg/</value>   <!-- 此处的mkmg是我自己命名的,即名称空间 -->
</property>

<!-- 指定 hadoop 工作目录namenode和datanode的目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/data/hadoopdata/</value>
</property>

<!-- 指定 zookeeper 集群访问地址 -->
<property>
<name>ha.zookeeper.quorum</name>
<value>mycat01:2181,mycat02:2181,mycat03:2181</value>
</property>
3)修改hdfs-site.xml
[hadoop@mycat01 hadoop]$ vim hdfs-site.xml

修改如下:下面所有属性中的 mkmg 都是我上面再core-site.xml中配置的名称空间

<!-- 指定副本数 -->
<property>
 <name>dfs.replication</name>
 <value>3</value>
</property>

<!--指定 hdfs 的 nameservice 为 mkmg,需要和 core-site.xml 中保持一致-->
<property>
 <name>dfs.nameservices</name>
 <value>mkmg</value>
</property>

<!-- mkmg名称空间 下面有两个 NameNode,别名分别是 nn1,nn2 -->
<property>
 <name>dfs.ha.namenodes.mkmg</name>
 <value>nn1,nn2</value>
</property>

<!-- nn1 的 RPC 通信地址 -->
<property>
 <name>dfs.namenode.rpc-address.mkmg.nn1</name>
 <value>mycat01:8020</value>
</property>

<!-- nn1 的 http 通信地址 -->
<property>
 <name>dfs.namenode.http-address.mkmg.nn1</name>
 <value>mycat01:50070</value>
</property>

<!-- nn2 的 RPC 通信地址 -->
<property>
 <name>dfs.namenode.rpc-address.mkmg.nn2</name>
 <value>mycat02:8020</value>
</property>
<!-- nn2 的 http 通信地址 -->
<property>
 <name>dfs.namenode.http-address.mkmg.nn2</name>
 <value>mycat02:50070</value>
</property>

<!-- 指定 NameNode 的 edits 元数据在 JournalNode 上的存放位置  指定jounalnode的位置 qjounal://主机:8485 -->
<property>
 <name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://mycat01:8485;mycat02:8485;mycat03:8485/mk</value>
</property>

<!-- 指定 JournalNode 在本地磁盘存放数据的位置 -->
<property>
 <name>dfs.journalnode.edits.dir</name>
 <value>/home/hadoop/data/hadoopdata/journaldata</value>
</property>

<!-- 开启 NameNode 失败自动切换 -->
<property>
 <name>dfs.ha.automatic-failover.enabled</name>
 <value>true</value>
</property>

<!-- 配置失败自动切换实现方式 -->
<!-- 此处配置在安装的时候切记检查不要换行-->
<property>
 <name>dfs.client.failover.proxy.provider.mkmg</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>

<!-- 配置隔离机制方法,多个机制用换行分割,即每个机制暂用一行-->
<property>
 <name>dfs.ha.fencing.methods</name>
 <value>
 sshfence
 shell(/bin/true)
 </value>
</property>
<!-- 使用 sshfence 隔离机制时需要 ssh 免登陆,我使用的是hadoop用户 -->
<property>
 <name>dfs.ha.fencing.ssh.private-key-files</name>
 <value>/home/hadoop/.ssh/id_rsa</value>
</property>
<!-- 配置 sshfence 隔离机制超时时间 -->
<property>
 <name>dfs.ha.fencing.ssh.connect-timeout</name>
 <value>30000</value>
</property>

注意:上面的<name>标签中的mkmg是我的名称空间,你需要替换成自己上面设置的名称空间。

4)修改mapred-site.xml

由于默认是没有mapred-site.xml的,所以需要改名,当然,你也可以复制

[hadoop@mycat01 hadoop]$ mv mapred-site.xml.template mapred-site.xml

修改如下:(configuration标签内的内容)

<property>
 <name>mapreduce.framework.name</name>
 <value>yarn</value>
</property>

<!-- 设置 mapreduce 的历史服务器地址和端口号,我这里选择mycat04 -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>mycat04:10020</value>
</property>
<!-- mapreduce 历史服务器的 web 访问地址 -->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>mycat04:19888</value>
</property>
5)修改yarn-site.xml--------------配置高可用
[hadoop@mycat01 hadoop]$ vim yarn-site.xml

修改如下:(configuration标签内的内容)

<!-- 开启 RM 高可用 -->
<property>
 <name>yarn.resourcemanager.ha.enabled</name>
 <value>true</value>
</property>

<!-- 指定 RM 的 cluster id  组名 -->
<property>
 <name>yarn.resourcemanager.cluster-id</name>
 <value>mkmycat_cluster</value>  <!-- 这里随便写个,不要中文和特殊符号就好 -->
</property>

<!-- 指定 RM 的名字 resourcemanager 别名,和namenode的别名一样,都可以变 -->
<property>
 <name>yarn.resourcemanager.ha.rm-ids</name>
 <value>rm1,rm2</value>
</property>

<!-- 分别指定 RM 的地址 -->
<property>
 <name>yarn.resourcemanager.hostname.rm1</name>
 <value>mycat03</value>
</property>
<property>
 <name>yarn.resourcemanager.hostname.rm2</name>
 <value>mycat04</value>
</property>

<!-- 指定 zk 集群地址 -->
<property>
 <name>yarn.resourcemanager.zk-address</name>
 <value>mycat01:2181,mycat02:2181,mycat03:2181</value>
</property>

<!-- 要运行 MapReduce 程序必须配置的附属服务 -->
<property>
 <name>yarn.nodemanager.aux-services</name>
 <value>mapreduce_shuffle</value>
</property>

<!-- 开启 YARN 集群的日志聚合功能 -->
<property>
 <name>yarn.log-aggregation-enable</name>
 <value>true</value>
</property>

<!-- YARN 集群的聚合日志最长保留时长 -->
<property>
 <name>yarn.log-aggregation.retain-seconds</name>
 <value>86400</value>
</property>

<!-- 启用自动恢复 -->
<property>
 <name>yarn.resourcemanager.recovery.enabled</name>
 <value>true</value>
</property>

<!-- 制定 resourcemanager 的状态信息存储在 zookeeper 集群上-->
<property>
 <name>yarn.resourcemanager.store.class</name>
<value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>
</property>
6)修改slaves-----把里面的内容替换成datanode(或nodemanager)节点主机名
[hadoop@mycat01 hadoop]$ vim slaves

内容替换如下:-----不要有任何空格和回车

mycat01
mycat02
mycat03
mycat04
7)将hadoop的安装包| (配置文件) 远程发送到其他节点
 scp -r hadoop-2.7.6 mycat02:/home/hadoop/
 scp -r hadoop-2.7.6 mycat03:/home/hadoop/
 scp -r hadoop-2.7.6 mycat04:/home/hadoop/
8) zookeeper集群我已经安装了,这里就不说了

zookeeper集群搭建参见:https://blog.csdn.net/qq_33713328/article/details/88854991

5.格式化并启动集群(严格按照下面的步骤启动)
1)依次启动zookeeper(我的是mycat01,mycat02,mycat03上依次启动)
zkServer.sh  start

并且查看状态保证启动正常:

zkServer.sh  status
2)启动QJM共享文件系统(存储namenode元数据信息的----namenode状态信息)–每台都启动
hadoop-daemon.sh start journalnode

每一个对应一个JournalNode进程

3)NameNode格式化-----在一台上执行即可(我的NameNode是mycat01,mycat02)

我选择初始化mycat01,因此在mycat01节点上执行下列命令

[hadoop@mycat01 hadoop]$  hadoop namenode -format

格式化成功标识:

19/03/27 07:13:47 INFO common.Storage: Storage directory /home/hadoop/data/hadoopdata/dfs/name has been successfully formatted.
4)将上一步的节点的namenode的元数据信息远程拷贝到另一个NameNode节点上

拷贝 dfs/*到相同目录下

scp -r /home/hadoop/data/hadoopdata/dfs mycat01:/home/hadoop/data/hadoopdata/
5)初始化zkfc(监控每一个NameNode的健康状况,写入zk的一个节点中)

初始化zkfc,就是在zk中创建状态信息存储的节点

因为zkfc与NameNode在同一个节点,所以只需要在其中一个NamNode执行即可

hdfs zkfc -formatZK

6)启动

① 在任意节点启动:

start-hdfs.sh 

② 最好在Yarn主节点启动,我这里可以选择在mycat03,mycat04

start-yarn.sh

③ 启动另一个Yarn主节点(Yarn高可用优点有缺陷,第二个需要手动启动)

yarn-daemon.sh start resourcemanager
6.环境搭建完成

你可以测试浏览器访问

你在windows本地的话,注意配置IP与主机名的映射

mycat01:50070
mycat02:50070
mycat03:8088
mycat04:8088
7.关闭集群的顺序
stop-dfs.sh
stop-yarn.sh

另一个ResourceManager需要手动关闭

关闭zookeeper

8.下次再启动集群时

先启动zookeeper

start-dfs.sh

start-yarn.sh

yarn-daemon.sh start resourcemanager 启动另一个ResourceManager

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值