Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)

在参考下面文章搭建过hadoop1.x之hdfs后,可以参考本文直接接着搭建

https://my.oschina.net/u/3696405/blog/1542525

如果没有参考过可以选择性的参考下面的说明,或者找其它文档搭建。

如果你的主机上没有搭建好zookeeper服务,请参考下面的文章完成zookeeper集群搭建

https://my.oschina.net/u/3696405/blog/1543336

1. 首先改变一些上次简单搭建好hdfs的一些东西。

 a. 删除配置文件中的masters,因为HadoopHA 不需要secondaryNameNode了,所以需要删除上次配置的这个目录。

173513_JEhA_3696405.png

 b. 删除上次搭建的非高可用的hadoop的namenode的工作的目录,(我的是/opt/hadoop-2.5/),因为后面要重新格式化。

173600_2EWW_3696405.png

 c. 修改配置文件

        vi core-site.xml(第一个配置项的值中的"laoniu"是自定义的,它是一个命名空间,代表你当前配置的这个hdfs系统,这个自定义的字段后面会用到!)

173656_6v7M_3696405.png

    vi hdfs-site.xml(注意上面说过的那个命名空间的字段,下面的配置中要对应一致)

173817_0inp_3696405.png

173923_r47V_3696405.png

174008_z3o6_3696405.png

 配置项的详细说明,可以参考下面连接中的:

Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)

http://eksliang.iteye.com/blog/2226986

 

2. 复制配置文件到其它node上(可以完全复制目录或者只复制etc/hadoop目录 覆盖其它机器上)

scp -r xxxx root@node2:xxxx   (注意这个命令的格式)

3. 启动zookeeper集群:./zkServer.sh start

(启动成功请参考 https://my.oschina.net/u/3696405/blog/1542535 笔记的说明,或者使用zkServer.sh status命令)

174130_ZJrb_3696405.png

4. 启动三个JournalNode,命令:HADOOP_HOME/bin/hadoop-daemon.sh start journalnode ,在每个JounrnalNode节点都启动一下,也就是hdfs-site.xml中配置的这三台。

175420_5t9m_3696405.png

(jps验证,查看log验证启动成功与否。)

174158_Un75_3696405.png

5. 在其中一个namenode上格式化:hdfs namenode -format

174315_LCy7_3696405.png

6. 把刚刚格式化之后的元数据拷贝到另外一个namenode上(通过下面两步完成)

a)        启动刚刚格式化的namenode   hadoop-daemon.sh start namenode

b)        在没有格式化的namenode上执行:hdfs namenode -bootstrapStandby

174347_qTK4_3696405.png

(b的图丢了)

7. 启动第二个namenode   hadoop-daemon.sh start namenode

8. 在其中一个namenode上初始化zkfc:hdfs zkfc -formatZK

9. 停止上面节点:stop-dfs.sh

10 .全面启动:start-dfs.sh

11. 验证nameNode,在浏览器中输入nameNode的主机加端口。

node1:50070 ,注意他是一个active节点,也就是正在服务的nameNode

174444_vdoV_3696405.png

node2:50070,注意他是一个备用节点,standby,当active节点down掉,这个节点就接管了。

174500_zz0i_3696405.png

12. 停掉active的nadeNodedown(图中有命令),查看另一台是否接手,(注意:两台nameNode必须可以相互免密码登陆,不然会失败的,这儿我曾经遇到的坑)

174526_Vjhk_3696405.png

174533_opWS_3696405.png

此时node2就成了active节点了

174545_FzNE_3696405.png

再次启动node1(上面被停掉的namenode),此时这个nameNode就成了standby节点了

174613_GK6e_3696405.png

174619_M1ac_3696405.png

OK,到此HadoopHA高可用搭建成功,但是注意这个里面还没搭建Yarn呢,且看下篇文章

 

附加:正常停止的显示:

174654_cP2H_3696405.png

注意:根据据上边关机的显示,可以一次发现我的配置,nameNode分别是node1和node1,dataNode:node2,node3,node4,JouralNode是node3,node4,node5,zkfc:node1,node2(这个必须和nameNode对应,而且是一一对应的)

 

转载于:https://my.oschina.net/u/3696405/blog/1542544

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值