Hadoop2.2.0--Hadoop Federation、Automatic HA、Yarn完全分布式集群搭建

       Hadoop玩了有不少时间了,随着系统上线,手头事情略微少些。So,抓紧时间走通了一遍Hadoop2下的Hadoop联盟(Federation)、Hadoop2高可用(HA)及Yarn的完全分布式配置,现记录在博客中,互相交流学习,话不多说,直入正文。

本文采用倒叙手法,先将最终结果呈现出来,如下:

结果展现一,通过jps查看集群守护进程

结果展现二,通过web端,查看集群运行情况

结果展现三,运行Hadoop2自带的wordcount程序,通过web查看,如下图,

可以看出Application Type是MapReduce,哈哈,快点在Yarn上把自己的Storm跑起来吧

OK,3张截图已献上,下文按照如下思路进行

本文只讲诉安装过程中的重点,对于有些步骤未做详细说明,欢迎留言交流。

一、集群环境

软件解压后,放在/usr/local路径下

二、具体步骤

准备工作

查看CentOS系统版本

arch/uname–a            x86_64(32位的是i386、i686)

修改主机名(重启生效)

vi/etc/sysconfig/network

设定IP地址

修改hosts映射文件

vi/etc/hosts

202.196.37.240   hadoop0

202.196.37.241   hadoop1

202.196.37.242   hadoop2

202.196.37.243   hadoop3

 配置SSH

 hadoop0上执行,生成密钥对

ssh-keygen -t rsa

cd /root/.ssh

cp id_rsa.pub authorized_keys

非hadoop0上执行,聚集

  ssh-copy-id -i hadoop0(把非hadoop0机器上的id_rsa.pub远程拷贝到bigdata0中的authorized_keys文件内)

hadoop0上执行,分发

scp authorized_keys hadoop1:/root/.ssh/
scp authorized_keys hadoop2:/root/.ssh/
scp authorized_keys hadoop3:/root/.ssh/

配置JDK环境变量

export JAVA_HOME=/usr/java/jdk1.7.0_60
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=.:$PATH:$JAVA_HOME/bin

安装Zookeeper

修改核心文件zoo.cfg

dataDir=/usr/local/zookeeper-3.4.5/data

logDir=/usr/local/zookeeper-3.4.5/log

server.0=hadoop0:2887:3887

server.1=hadoop1:2887:3887

server.2=hadoop2:2887:3887

 启动、验证Zookeeper集群

zkServer.shstart/status

安装Hadoop2

将自编译的64位的hadoop-2.2.0-src放到/usr/local路径下

cp -R/usr/local/hadoop-2.2.0-src/hadoop-dist/target/hadoop-2.2.0 /usr/local/

mvhadoop-2.2.0 hadoop

本文中的所有xml配置文件,都在/usr/local/hadoop/etc/hadoop路径下,

所有配置文件,均已测试通过,稍微整理格式后,可直接copy使用。

配置分为两部分,一部分是对Hadoop2的Hadoop Federation、HA的配置;另一部分是对Hadoop2的Yarn配置,请看下图:

开启配置文件模式,哈哈

 

首先在cluster1_hadoop0上配置,然后再往其他节点scp

core-site.xml

<configuration>

    <property>
    <name>fs.defaultFS</name>
  <value>hdfs://cluster1</value> 

<description>此处是默认的HDFS路径,在节点hadoop0和hadoop1中使用cluster1,在节点hadoop2和hadoop3中使用cluster2</description>
</property>
<property>
 <name>hadoop.tmp.dir</name>
  <value>/usr/local/hadoop/tmp</value>
</property>
<property>
 <name>ha.zookeeper.quorum</name>
<value>hadoop0:2181,hadoop1:2181,hadoop2:2181</value>

  <description>Zookeeper集群<description>

</property>

</configuration>

hdfs-site.xml

<configuration>

<!--1描述cluster1集群的信息-->

 <property>

        <name>dfs.replication</name>

        <value>2</value>

  </property>

  <property>

        <name>dfs.nameservices</name>

       <value>cluster1,cluster2</value>

    </property>

       <property>

       <name>dfs.ha.namenodes.cluster1</name>

       <value>hadoop0,hadoop1</value>

    </property>

       <property>

       <name>dfs.namenode.rpc-address.cluster1.hadoop0</name>

        <value>hadoop0:9000</value>

    </property>

       <property>

       <name>dfs.namenode.http-address.cluster1.hadoop0</name>

       <value>hadoop0:50070</value>

    </property>

    <property>

       <name>dfs.namenode.rpc-address.cluster1.hadoop1</name>

        <value>hadoop1:9000</value>

    </property>

       <property>

       <name>dfs.namenode.http-address.cluster1.hadoop1</name>

        <value>hadoop1:50070</value>

    </property>

  <!--在cluster1中此处的注释是关闭的,cluster2反之-->

        <property>

        <name>dfs.namenode.shared.edits.dir</name>

         <value>qjournal://hadoop0:8485;hadoop1:8485;hadoop2:8485/cluster1</value>

<description>指定cluster1的两个NameNode共享edits文件目录时,使用的是JournalNode集群来维护</description>

    </property>

       <property>

       <name>dfs.ha.automatic-failover.enabled.cluster1</name>

        <value>true</value>

    </property>

       <property>

       <name>dfs.client.failover.proxy.provider.cluster1</name>       

 <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

    </property>

<!--2下面描述cluster2集群的信息-->

<property>

       <name>dfs.ha.namenodes.cluster2</name>

       <value>hadoop2,hadoop3</value>

    </property>

       <property>

       <name>dfs.namenode.rpc-address.cluster2.hadoop2</name>

        <value>hadoop2:9000</value>

    </property>

    <property>

       <name>dfs.namenode.http-address.cluster2.hadoop2</name>

       <value>hadoop2:50070</value>

    </property>

    <property>

       <name>dfs.namenode.rpc-address.cluster2.hadoop3</name>

        <value>hadoop3:9000</value>

    </property>

    <property>

       <name>dfs.namenode.http-address.cluster2.hadoop3</name>

       <value>hadoop3:50070</value>

</property>

 <!-- 在cluster1中此处的注释是打开的,cluster2反之

      <property>

       <name>dfs.namenode.shared.edits.dir</name>

       <value>qjournal://hadoop0:8485;hadoop1:8485;hadoop2:8485/cluster1</value>

<description>指定cluster2的两个NameNode共享edits文件目录时,使用的是JournalNode集群来维护</description>

</property>

-->

     <property>

       <name>dfs.ha.automatic-failover.enabled.cluster2</name>

        <value>true</value>

    </property>

       <property>

       <name>dfs.client.failover.proxy.provider.cluster2</name>

       <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

     </property>

<!--3配置cluster1、cluster2公共的信息--> 

      <property>

       <name>dfs.journalnode.edits.dir</name>

       <value>/usr/local/hadoop/tmp/journal</value>

     </property>

        <property>

       <name>dfs.ha.fencing.methods</name>

        <value>sshfence</value>

    </property>

       <property>

       <name>dfs.ha.fencing.ssh.private-key-files</name>

       <value>/root/.ssh/id_rsa</value>

    </property>

  </configuration>

以上配置完成后,分发scp

scp -rq hadoop hadoop1:/usr/local/

scp -rq hadoop hadoop2:/usr/local/

scp -rq hadoop hadoop3:/usr/local/

在其他节点修改时,需要注意的地方

hadoop-env.sh   无需修改

slaves              无需修改

core-site.xml

1、<property>

       <name>fs.defaultFS</name>

       <value>hdfs://cluster1</value>

</property>

cluster1节点中的value值:hdfs://cluster1  

cluster2节点中的value值:hdfs://cluster2

hdfs-site.xml

<property>

    <name>dfs.namenode.shared.edits.dir</name>

       <value>qjournal://hadoop0:8485;hadoop1:8485;hadoop2:8485/cluster2</value>

</property>

cluster1节点中的value值:qjournal://hadoop0:8485;hadoop1:8485;hadoop2:8485/cluster1

cluster2节点中的value值:qjournal://hadoop0:8485;hadoop1:8485;hadoop2:8485/cluster2

此处的实质是使用JournalNode集群来维护Hadoop集群中两个NameNode共享edits文件目录的信息。重在理解,不可盲目copy哟 

只需对应修改这两个地方即可。

测试启动

1、启动Zookeeper

在hadoop0、hadoop1、hadoop2上执行zkServer.shstart

 2、启动JournalNode

在hadoop0、hadoop1、hadoop2上执行sbin/hadoop-daemon.shstart journalnode

3、格式化ZooKeeper

在hadoop0、hadoop2上执行bin/hdfs  zkfc -formatZK

因为Zookeeper要担当执行高可用(HA)切换的任务

 对cluster1

41、对hadoop0节点进行格式化和启动

bin/hdfs  namenode -format

sbin/hadoop-daemon.sh  start namenode

 51、对hadoop1节点进行格式化和启动 

bin/hdfs  namenode -bootstrapStandby

sbin/hadoop-daemon.sh  start namenode

 61、在hadoop0、hadoop1上启动zkfc

sbin/hadoop-daemon.sh   start  zkfc

执行后, hadoop0、hadoop1有一个节点就会变为active状态。

 对cluster2

42、对hadoop2节点进行格式化和启动

bin/hdfs  namenode -format

sbin/hadoop-daemon.sh  start namenode

 52、对hadoop3节点进行格式化和启动 

bin/hdfs  namenode -bootstrapStandby

sbin/hadoop-daemon.sh  start namenode

 62、在hadoop2、hadoop3上启动zkfc

sbin/hadoop-daemon.sh   start  zkfc

执行后, hadoop2、hadoop3有一个节点就会变为active状态。

 7、

启动datanode,在hadoop0上执行

sbin/hadoop-daemons.sh   start  datanode

集群的运行情况,请参见文章开头的截图

截至到此,已经可以对Hadoop2的HDFS进行操作。

下面进行Yarn的配置,配置后,就可以在Yarn上运行MapReduce作业啦,哈哈

配置Yarn

以下配置文件依旧是在/usr/local/hadoop/etc/hadoop路径下

mapred-site.xml

<property>

  <name>mapreduce.framework.name</name>

  <value>yarn</value>

</property>

yarn-site.xml

<property>

   <name>yarn.resourcemanager.hostname</name>

    <value>hadoop0</value>

 </property>  

 <property>

    <name>yarn.nodemanager.aux-services</name>

   <value>mapreduce_shuffle</value>

 </property>

测试Yarn

启动yarn,在hadoop0上执行

           sbin/start-yarn.sh

运行测试程序

        hadoop    jar  share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jarwordcount /testFile /out

测试结果,请见博文开始。

OK!已越过这道坎——Hadoop2中Hadoop Federation、HA、Yarn完全分布式配置。今天,Hadoop2你搭建成功了吗?DO it !

文章中的xml配置未做详细description,欢迎留言交流。

Storm学习中,走起喽......

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值