hdfs HA

解压

 tar -zxvf hadoop-2.7.3.tar.gz -C /opt/modules/

删除文件:

rm -rf doc/
rm -rf *.cmd

配置文件:

export JAVA_HOME=/opt/modules/jdk1.8.0_91

core-site.xml

    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://ns1</value>
    </property>

    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/modules/hadoop-2.7.3/data/tmpData</value>
    </property>

    <property>
        <name>hadoop.http.staticuser.user</name>
        <value>huadian</value>
    </property>

hdfs-site.xml

    <property>
        <name>dfs.permissions.enabled</name>
        <value>false</value>
    </property>

slaves

bigdata-hpsk02.huadian.com
bigdata-hpsk03.huadian.com
bigdata-hpsk04.huadian.com

检查支持的压缩格式

 bin/hadoop checknative

替换原有的native

hdfs-site.xml

    <!--HDFS HA Using QJM -->

    <!--给2个namenode取一个组名称 -->
    <property>
        <name>dfs.nameservices</name>
        <value>ns1</value>
    </property>
    <!--给2个namenode分别取名字 -->
    <property>
        <name>dfs.ha.namenodes.ns1</name>
        <value>nn1,nn2</value>
    </property>
    <!--2个namenode的地址 -->
    <property>
        <name>dfs.namenode.rpc-address.ns1.nn1</name>
        <value>bigdata-hpsk01.huadian.com:8020</value>
    </property>
    <property>
        <name>dfs.namenode.rpc-address.ns1.nn2</name>
        <value>bigdata-hpsk02.huadian.com:8020</value>
    </property>
    <!--2个namenode的web UI地址 -->
    <property>
        <name>dfs.namenode.http-address.ns1.nn1</name>
        <value>bigdata-hpsk01.huadian.com:50070</value>
    </property>
    <property>
        <name>dfs.namenode.http-address.ns1.nn2</name>
        <value>bigdata-hpsk02.huadian.com:50070</value>
    </property>

    <!--共享编辑日志存放的node -->
    <property>
        <name>dfs.namenode.shared.edits.dir</name>
        <value>qjournal://bigdata-hpsk01.huadian.com:8485;bigdata-hpsk02.huadian.com:8485;bigdata-hpsk03.huadian.com:8485/ns1</value>
    </property>
    <!--客户端代理 -->
    <property>
        <name>dfs.client.failover.proxy.provider.ns1</name>
        <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
    </property>
    <!--防止脑裂 -->
    <property>
      <name>dfs.ha.fencing.methods</name>
      <value>sshfence</value>
    </property>

    <property>
      <name>dfs.ha.fencing.ssh.private-key-files</name>
      <value>/home/huadian/.ssh/id_rsa</value>
    </property>

    <!--journalnode 目录 -->
    <property>
        <name>dfs.journalnode.edits.dir</name>
        <value>/opt/modules/hadoop-2.7.3/data/jn</value>
    </property>

分发

scp -r ./hadoop-2.7.3/ bigdata-hpsk03.huadian.
com:/opt/modules/

启动测试
step1:在各个journalnode节点上,启动journalnode服务

sbin/hadoop-daemon.sh start journalnode

step2:在【nn 1】上,对其进行格式化,并启动

    bin/hdfs namenode -format   
    状态0
sbin/hadoop-daemon.sh start namenode
    http://bigdata-hpsk01.huadian.com:50070

step3:在【nn 2 】上,同步【nn 1】的元数据信息

     bin/hdfs namenode -bootstrapStandby
    状态是0

step5:启动【nn 1】切换为Active

bin/hdfs haadmin -transitionToActive nn1

step6:在【nn 1】上,启动所有的datanode

sbin/hadoop-daemons.sh start datanode
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
你意识到自己在实验过程中的不足之处,并找到改进的方向。你可以提HDFS Federation和HDFS HAHadoop分布式文件系统(HDFS)中实现高可用性和扩展性的两种不同机制,它们有以下区别: 1. 目标:HDFS Federation的目标是实现HDFS的水平扩展,通过将命名空间划分为多个命名空间(Namespace),每个命名空间有自己的NameNode负责管理,从而提高系统的整体容量和吞吐量。而HDFS HA的目标是实现HDFS的高可用性,通过在集群中配置主备两个Name及自己在实验中遇到的困难和挑战,以及在解决问题时所采取的策略Node,当主节点发生故障时,备用节点可以快速接管服务。 2. 组件数量:HDFS Federation涉及多个NameNode和多个命名空间,每个命名空间都有一个独立的NameNode。而HDFS HA只涉及两个NameNode,即主节点和备用节点。 3. 命名空间划分:HDFS Federation将整个文件系统的命名空间划分为多个命名空间,并且每个命名空间有自己的NameNode。这样可以将文件系统的负载分散到多个NameNode上,提高系统的扩展性。而HDFS HA只有一个命名空间,主备两个NameNode共享同一个命名空间。 4. 故障切换方式:在HDFS Federation中,当某个命名空间的NameNode发生故障时,只会影响该命名空间下的文件系统操作,其他命名空间仍然可用。而在HDFS HA中,当主节点发生故障时,备用节点会接管整个文件系统的服务,实现快速故障切换。 5. 配置和管理:HDFS Federation需要配置和管理多个NameNode和命名空间,这需要更多的配置和管理工作。而HDFS HA只需要配置和管理主备两个NameNode,相对来说更加简单。 总的来说,HDFS Federation是为了实现HDFS的水平扩展,提高系统的容量和吞吐量;而HDFS HA是为了实现HDFS的高可用性,确保系统在主节点故障时能够快速恢复。它们分别解决了HDFS的扩展性和可靠性问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值