HadoopHA(高可用)的搭建

HadoopHA的搭建

1. 搭建准备

1)配置虚拟网络

2)配置windows网络

3)配置虚拟机内部网络
  • 配置/etc/sysconfig/network-scripts/ifcfg-ens33文件

2. 拉取文件

  • JDK、ZOOKEEPRR、HADOOP的压缩包到/opt/software下

3. 解压缩文件

  • 解压缩文件到/opt/module下

  • 命令: tar -zxvf

4. 配置环境变量

  • vim /etc/profile.d/my_env.sh
  • 内容如下:

    #JAVA_HOME
    export JAVA_HOME=/opt/module/jdk1.8.0_212
    export PATH=$PATH:$JAVA_HOME/bin
    #HADOOP_HOME
    export HADOOP_HOME=/opt/ha/hadoop-3.1.3
    export PATH=$PATH:$HADOOP_HOME/bin
    export PATH=$PATH:$HADOOP_HOME/sbin
    export HDFS_NAMENODE_USER=root
    export HDFS_DATANODE_USER=root
    export HDFS_SECONDARYNAMENODE_USER=root
    export YARN_RESOURCEMANAGER_USER=root
    export YARN_NODEMANAGER_USER=root
    #ZOOKEEPER_HOME 
    export ZOOKEEPER_HOME=/opt/module/zookeeper-3.4.10
    export PATH=$PATH:$ZOOKEEPER_HOME/bin
    #ZK_HOME
    export HDFS_ZKFC_USER=root
    export HDFS_JOURNALNODE_USER=root
  • 分发

    xsync /etc/profile

5.配置zookeeper集群

1)集群规划
  • 在三台虚拟机上部署zookeeper

2)解压安装
(1)
tar -zxvf
(2)在/opt/module/zookeeper-3.4.10下创建文件zkData
mkdir -p zkData
(3)修改在/opt/module/zookeeper-3.4.10下的zoo_sample.cfg为zoo.cfg
mv zoo_sample.cfg zoo.cfg
3)配置zoo.cfg文件
(1)配置
dataDir=/opt/module/zookeeper-3.4.10/zkData
(2)增加
##############cluster###############
server.2=hadoop102:2888:3888
server.3=hadoop103:2888:3888
server.4=hadoop104:2888:3888
4)集群操作
(1)在/opt/module/zookeeper-3.4.10/zkData下创建myid的文件

添加对应的编号:如 2 / 3 / 4

(2)分发zookeeper
xsync
(3)分别启动zookeeper
zkServer.sh start
(4)查看zookeeper状态
zkServer.sh status

5. 配置hadoop集群

1)在/opt下创建一个ha目录
mkdir ha
2)拷贝/opt/module下的hadoop-3.1.3文件到/opt/ha下(删除data和log目录)
cp -r
3)配置hadoop文件

在 /opt/ha/hadoop-3.1.3/etc/hadoop下

(1)core-site.xml
<configuration>
        <!-- 把两个NameNode)的地址组装成一个集群mycluster -->
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://mycluster</value>
        </property>
​
        <!-- 指定hadoop运行时产生文件的存储目录 -->
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/opt/ha/hadoop-3.1.3/data/tmp</value>
        </property>
        <property>
                <name>ha.zookeeper.quorum</name>
                <value>hadoop102:2181,hadoop103:2181,hadoop104:2181</value>
        </property>
​
</configuration>
(2)hdfs-site.xml
<configuration>
        <!-- 完全分布式集群名称 -->
        <property>
                <name>dfs.nameservices</name>
                <value>mycluster</value>
        </property>
​
        <!-- 集群中NameNode节点都有哪些 -->
        <property>
                <name>dfs.ha.namenodes.mycluster</name>
                <value>nn1,nn2</value>
        </property>
​
        <!-- nn1的RPC通信地址 -->
        <property>
                <name>dfs.namenode.rpc-address.mycluster.nn1</name>
                <value>hadoop102:9000</value>
        </property>
​
        <!-- nn2的RPC通信地址 -->
        <property>
                <name>dfs.namenode.rpc-address.mycluster.nn2</name>
                <value>hadoop103:9000</value>
        </property>
​
        <!-- nn1的http通信地址 -->
        <property>
                <name>dfs.namenode.http-address.mycluster.nn1</name>
                <value>hadoop102:50070</value>
        </property>
​
        <!-- nn2的http通信地址 -->
        <property>
                <name>dfs.namenode.http-address.mycluster.nn2</name>
                <value>hadoop103:50070</value>
        </property>
​
        <!-- 指定NameNode元数据在JournalNode上的存放位置 -->
        <property>
                <name>dfs.namenode.shared.edits.dir</name>
                <value>qjournal://hadoop102:8485;hadoop103:8485;hadoop104:8485/mycluster</value>
        </property>
​
        <!-- 配置隔离机制,即同一时刻只能有一台服务器对外响应 -->
        <property>
                <name>dfs.ha.fencing.methods</name>
                <value>sshfence</value>
        </property>
​
        <!-- 使用隔离机制时需要ssh无秘钥登录-->
        <property>
                <name>dfs.ha.fencing.ssh.private-key-files</name>
                <value>/home/atguigu/.ssh/id_rsa</value>
        </property>
​
        <!-- 声明journalnode服务器存储目录-->
        <property>
                <name>dfs.journalnode.edits.dir</name>
                <value>/opt/ha/hadoop-3.1.3/data/jn</value>
        </property>
​
        <!-- 关闭权限检查-->
        <property>
                <name>dfs.permissions.enable</name>
                <value>false</value>
        </property>
​
        <!-- 访问代理类:client,mycluster,active配置失败自动切换实现方式-->
        <property>
                <name>dfs.client.failover.proxy.provider.mycluster</name>
                <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
        </property>
        <property>
                <name>dfs.ha.automatic-failover.enabled</name>
                <value>true</value>
        </property>
</configuration>
(3)yarn-site.xml
<configuration>
​
<!-- Site specific YARN configuration properties -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
​
    <!--启用resourcemanager ha-->
    <property>
        <name>yarn.resourcemanager.ha.enabled</name>
        <value>true</value>
    </property>
​
    <!--声明两台resourcemanager的地址-->
    <property>
        <name>yarn.resourcemanager.cluster-id</name>
        <value>cluster-yarn1</value>
    </property>
​
    <property>
        <name>yarn.resourcemanager.ha.rm-ids</name>
        <value>rm1,rm2</value>
    </property>
​
    <property>
        <name>yarn.resourcemanager.hostname.rm1</name>
        <value>hadoop102</value>
    </property>
​
    <property>
        <name>yarn.resourcemanager.hostname.rm2</name>
        <value>hadoop103</value>
    </property>
​
    <!--指定zookeeper集群的地址-->
        <property>
        <name>yarn.resourcemanager.zk-address</name>
        <value>hadoop102:2181,hadoop103:2181,hadoop104:2181</value>
    </property>
​
    <!--启用自动恢复-->
    <property>
        <name>yarn.resourcemanager.recovery.enabled</name>
        <value>true</value>
    </property>
​
    <!--指定resourcemanager的状态信息存储在zookeeper集群-->
    <property>
        <name>yarn.resourcemanager.store.class</name>
         <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>
    </property>
</configuration>
(4)mapred-site.xml
<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
</configuration>
(5)映射文件workers
hadoop102
hadoop103
hadoop104
(6)配置hadoop-env.sh文件
export JAVA_HOME=/opt/module/jdk1.8.0_212

6. 启动

集群规划

启动
1)在各个JournalNode 节点上,输入以下命令启动journalnode 服务
[hadoop103]hdfs --daemon start journalnode
[hadoop104]hdfs --daemon start journalnode
[hadoop105]hdfs --daemon start journalnode
2)在[nn1]上格式化zkfc
hdfs zkfc -formatZK
3)在[nn1]上格式化namenode 并启动
hdfs namenode -format
hdfs --daemon start namenode
4)在[nn2]和[nn3]上同步[nn1]的元数据信息
[hadoop103]hdfs namenode -bootstrapStandby
[hadoop104]hdfs namenode -bootstrapStandby
5)启动[nn2]和nn[3]

在[nn1]上:

[hadoop102]start-all.sh
6)查看web页面
hadoop102:50070

7)jpsall脚本查看
[root@hadoop102 hadoop]# jpsall 
============== hadoop102 ===============
4496 JournalNode
6224 DFSZKFailoverController
6707 NodeManager
10260 Jps
5351 NameNode
6551 ResourceManager
5179 QuorumPeerMain
5822 DataNode
============== hadoop103 ===============
5333 DataNode
5493 DFSZKFailoverController
5589 ResourceManager
4582 QuorumPeerMain
3656 JournalNode
7609 Jps
5149 NameNode
5679 NodeManager
============== hadoop104 ===============
6497 Jps
4552 JournalNode
4939 DataNode
4637 QuorumPeerMain
5102 NodeManager

7.jpsall脚本

1)在 /usr/bin 创建文件jpsall
cd /usr/bin
touch jpsall
2)编辑jpsall文件,添加内容:
#!/bin/bash
​
for host in hadoop102 hadoop103 hadoop104
do
        echo ============== $host ===============
        ssh $host jps
done
3)给jpsall可读写权限
chmod 777 jpsall

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值