最近又安装 hadoop 集群, 故尝试了一下配置 HDFS 的 HA,CDH4支持Quorum-based Storage和shared storage using NFS两种HA方案,而CDH5只支持第一种方案,即 QJM 的 HA 方案。
关于 hadoop 集群的安装部署过程你可以参考 使用yum安装CDH Hadoop集群 或者 手动安装 hadoop 集群的过程。
集群规划
我一共安装了三个节点的集群,对于 HA 方案来说,三个节点准备安装如下服务:
- cdh1:hadoop-hdfs-namenode(primary) 、hadoop-hdfs-journalnode、hadoop-hdfs-zkfc
- cdh2:hadoop-hdfs-namenode(standby)、hadoop-hdfs-journalnode、hadoop-hdfs-zkfc
- cdh3: hadoop-hdfs-journalnode
根据上面规划,在对应节点上安装相应的服务。
安装步骤
停掉集群
停掉集群上所有服务。
$ sh /opt/cmd.sh ' for x in `ls /etc/init.d/|grep spark` ; do service $x stop ; done'
$ sh /opt/cmd.sh ' for x in `ls /etc/init.d/|grep impala` ; do service $x stop ; done'
$ sh /opt/cmd.sh ' for x in `ls /etc/init.d/|grep hive` ; do service $x stop ; done'
$ sh /opt/cmd.sh ' for x in `ls /etc/init.d/|grep hbase` ; do service $x stop ; done'
$ sh /opt/cmd.sh ' for x in `ls /etc/init.d/|grep hadoop` ; do service $x stop ; done'
cmd.sh代码内容见Hadoop集群部署权限总结一文中的/opt/shell/cmd.sh。
停止客户端程序
停止服务集群的所有客户端程序,包括定时任务。
备份 hdfs 元数据
a,查找本地配置的文件目录(属性名为 dfs.name.dir 或者 dfs.namenode.name.dir或者hadoop.tmp.dir )
grep -C1 hadoop.tmp.dir /etc/hadoop/conf/hdfs-site.xml
#或者
grep -C1 dfs.namenode.name.dir /etc/hadoop/conf/hdfs-site.xml
通过上面的命令,可以看到类似以下信息:
<property>
<name>hadoop.tmp.dir</name>
<value>/data/dfs/nn</value>
</property>
b,对hdfs数据进行备份
cd /data/dfs/nn
tar -cvf /root/nn_backup_data.tar .
安装服务
在 cdh1、cdh2、cdh3 上安装 hadoop-hdfs-journalnode
$ ssh cdh1 'yum install hadoop-hdfs-journalnode -y '
$ ssh cdh2 'yum install hadoop-hdfs-journalnode -y '
$ ssh cdh3 'yum install hadoop-hdfs-journalnode -y '
在 cdh1、cdh2 上安装 hadoop-hdfs-zkfc:
ssh cdh1 "yum install hadoop-hdfs-zkfc -y "
ssh cdh2 "yum install hadoop-hdfs-zkfc -y "
修改配置文件
修改/etc/hadoop/conf/core-site.xml,做如下修改:
<property>
<name>fs.defaultFS</name>
<value>hdfs://mycluster:8020</value>
</property>
<property>
<name>ha.zookeeper.quorum</name>
<value>cdh1:21088,cdh2:21088,cdh3:21088</value>
</property>
修改/etc/hadoop/conf/hdfs-site.xml,删掉一些原来的 namenode 配置,增加如下:
<!-- hadoop HA -->
<property>
<name>dfs.nameservices</name>
<value>mycluster</value>
</property>
<property>
<name>dfs.ha.namenodes.mycluster</name>
<value>nn1,nn2</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn1</name>
<value>cdh1:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn2</name>
<value>cdh2:8020</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn1</name>
<value>cdh1:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn2</name>
<value>cdh2:50070</value>
</property>
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://cdh1:8485,cdh2:8485,cdh3:8485/mycluster</value>
</property>
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/data/dfs/jn</value>
</property>
<property>
<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence(hdfs)</value>
</property>
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/var/lib/hadoop-hdfs/.ssh/id_rsa</value>
</property>
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
同步配置文件
将配置文件同步到集群其他节点:
$ sh /opt/syn.sh /etc/hadoop/conf /etc/hadoop/
在journalnode的三个节点上创建目录:
$ ssh cdh1 'mkdir -p /data/dfs/jn ; chown -R hdfs:hdfs /data/dfs/jn'
$ ssh cdh2 'mkdir -p /data/dfs/jn ; chown -R hdfs:hdfs /data/dfs/jn'
$ ssh cdh3 'mkdir -p /data/dfs/jn ; chown -R hdfs:hdfs /data/dfs/jn'
配置无密码登陆
在两个NN上配置hdfs用户间无密码登陆:
对于 cdh1:
$ passwd hdfs
$ su - hdfs
$ ssh-keygen
$ ssh-copy-id cdh2
对于 cdh2:
$ passwd hdfs
$ su - hdfs
$ ssh-keygen
$ ssh-copy-id cdh1
启动journalnode
启动cdh1、cdh2、cdh3上的 hadoop-hdfs-journalnode 服务
$ ssh cdh1 'service hadoop-hdfs-journalnode start'
$ ssh cdh2 'service hadoop-hdfs-journalnode start'
$ ssh cdh3 'service hadoop-hdfs-journalnode start'
初始化共享存储
在namenode上初始化共享存储,如果没有格式化,则先格式化:
hdfs namenode -initializeSharedEdits
启动NameNode:
$ service hadoop-hdfs-namenode start
同步 Standby NameNode
cdh2作为 Standby NameNode,在该节点上先安装namenode服务
$ yum install hadoop-hdfs-namenode -y
再运行:
$ sudo -u hdfs hadoop namenode -bootstrapStandby
如果是使用了kerberos,则先获取hdfs的ticket再执行:
$ kinit -k -t /etc/hadoop/conf/hdfs.keytab hdfs/cdh1@JAVACHEM.COM
$ hadoop namenode -bootstrapStandby
然后,启动 Standby NameNode:
$ service hadoop-hdfs-namenode start
配置自动切换
在两个NameNode上,即cdh1和cdh2,安装hadoop-hdfs-zkfc
$ ssh cdh1 'yum install hadoop-hdfs-zkfc -y'
$ ssh cdh2 'yum install hadoop-hdfs-zkfc -y'
在任意一个NameNode上下面命令,其会创建一个znode用于自动故障转移。
$ hdfs zkfc -formatZK
如果你想对zookeeper的访问进行加密,则请参考 Enabling HDFS HA 中 Securing access to ZooKeeper 这一节内容。
然后再两个 NameNode 节点上启动zkfc:
$ ssh cdh1 "service hadoop-hdfs-zkfc start"
$ ssh cdh2 "service hadoop-hdfs-zkfc start"
测试
分别访问 http://cdh1:50070/ 和 http://cdh2:50070/ 查看谁是 active namenode,谁是 standyby namenode。
查看某Namenode的状态:
#查看cdh1状态
$ sudo -u hdfs hdfs haadmin -getServiceState nn1
active
#查看cdh2状态
$ sudo -u hdfs hdfs haadmin -getServiceState nn2
standby
执行手动切换:
$ sudo -u hdfs hdfs haadmin -failover nn1 nn2
Failover to NameNode at cdh2/192.168.56.122:8020 successful
再次访问 http://cdh1:50070/ 和 http://cdh2:50070/ 查看谁是 active namenode,谁是 standyby namenode。
配置HBase HA
先停掉 hbase,然后修改/etc/hbase/conf/hbase-site.xml,做如下修改:
<!-- Configure HBase to use the HA NameNode nameservice -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://mycluster:8020/hbase</value>
</property>
在 zookeeper 节点上运行/usr/lib/zookeeper/bin/zkCli.sh
$ ls /hbase/splitlogs
$ rmr /hbase/splitlogs
最后启动 hbase 服务。
配置 Hive HA
运行下面命令将hive的metastore的root地址的HDFS nameservice。
$ /usr/lib/hive/bin/metatool -listFSRoot
Initializing HiveMetaTool..
Listing FS Roots..
hdfs://cdh1:8020/user/hive/warehouse
$ /usr/lib/hive/bin/metatool -updateLocation hdfs://mycluster hdfs://cdh1 -tablePropKey avro.schema.url
-serdePropKey schema.url
$ metatool -listFSRoot
Listing FS Roots..
Initializing HiveMetaTool..
hdfs://mycluster:8020/user/hive/warehouse
配置 Impala
不需要做什么修改,但是一定要记住 core-site.xml 中 fs.defaultFS
参数值要带上端口号,在CDH中为 8020。
配置 YARN
暂时未使用,详细说明请参考 MapReduce (MRv1) and YARN (MRv2) High Availability。
配置 Hue
暂时未使用,详细说明请参考 Hue High Availability 。
配置 Llama
暂时未使用,详细说明请参考 Llama High Availability 。
本文链接地址: http://blog.javachen.com/2014/07/18/install-hdfs-ha-in-cdh.html
本文基于 署名2.5中国大陆许可协议发布,欢迎转载、演绎或用于商业目的,但是必须保留本文署名和文章链接。 如您有任何疑问或者授权方面的协商,请邮件联系我。