cms cdh 5.3.x 升级成HA的配置

接着上一篇cms + cdh安装博客: http://blog.csdn.net/u010839779/article/details/78858936  cms cdh  

cms cdh 升级成HA的配置详解:

NameNodeHA

 

找到namenode的服务-----> 操作----->启用High Avaliablity

 

继续即可配置

高可用的命名空间名字随便命名即可,建议使用默认值nameservice1。


 

点击选择一个namenode主机:


选择journalNode的主机,建议至少3个且为基数个:

 

继续下一步的配置,建议把journalnode数据共享目录的配置给配置上,默认为空

 

继续进行启用 HDFS High Availability:


失败格式化已经存在的namenode的节点:因为目录存在数据存在,可以选择手动格式化以前的数据,然后再删除datanode的数据,如果是一开始就搭建HA就不会失败咯。详细信息如下:

 

 

完成启动NameNodeHA配置:

 

测试NameNode是否可用:

 

关闭活动的NameNode服务:

 

证明已经失败转移过来,然后再查看是否能进行hdfs的文件读写操作;然后再启动hadoop01Namenode再关闭hadoop02namenode试试能否进行正常切换。

[root@hadoop01 ~] hdfs dfs -put /home/helloworld.sh /

[root@hadoop01 ~]  hdfs dfs -cat /helloworld.sh

#!/bin/bash

echo "hello world" >> /home/helloworld

证明可以失败转移后可以进行正常读写,然后再来回关闭namenode试试是否可用即可。

 

YarnresurceHA

 

点击启动High Avaliability:

 

点击选择一个主机,选择hadoop02为备用rm服务主机:

 

点击确定然后再点击继续:

然后对环境进行检测,只有三项检测,如果三项检测都是没有异常,点击完成即可(我忘记截完成的图啦)。

 

停掉活动的rm


 

 

证明是已经失败转移(来回切换几次试试可以失败转移),然后再运行几个mrjob作业即可。

bash-4.1$yarn jar /opt/cloudera/parcels/CDH-5.3.6-1.cdh5.3.6.p0.11/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar wordcount /words /out/01

 

 

解决hue中不能查询hive数据的问题:

 

 

手动批量将hive的元数据信息中的库和表指向的hdfs中的目录修改成HA的即可。

 

 

到此,hadoophdfs模块和yarn模块的HA已经升级完成.........

 

hbase的备份masterhiveserver2建议安装时选择配置在多台服务器中。

注意:一切升级后请检测别的组件是否受影响,即做好完全测试。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据东哥(Aidon)

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值