Hadoop集群升级HA高可用集群配置

在原有的Hadoop集群的基础上,配置HA高可用集群,简单修改配置文件,具体配置及启动方案如下:
(先停止Hadoop集群)

修改 core-site.xml(指定ZK集群,使ZK能够监督master的运行,启动备用节点,我的主节点主机名为Kate,并非master,配置HA的时候改名为apollo,个人喜好,请注意,酌情忽略此细节)
未修改之前的core-site.xml
修改之后:
就是增加一个property,指定ZooKeeper集群的端口号
另外 默认的HDFS路径 ,取名为cluster1,hdfs://后面不再跟主机名和端口号
而是设置一个 hdfs的nameservice取名为cluster1
因此,改成hdfs://cluster1即可(注意,集群名cluster1在hdfs-site.xml里面也要用到,注意对应)


修改 hdfs-site.xml
在原有基础上,修改或添加如下信息:

修改 yarn-site.xml
然后配两个主节点的端口:
注意,如果要配
<!--RM1 RM2 is different-->
<property>
    <name>yarn.resourcemanager.ha.id</name>
    <value>rm1</value>
</property>
这个属性的话,两台主节点是不同的(当然可以不配这个属性)


以下为第一次启动时需要做的:
分别在每个节点启动journalnodehadoop-daemon.sh start journalnode
第一次启动的时候要格式化HDFS: hdfs namenode -format
然后格式化ZKFC hdfs zkfc -formatZK
这两步操作均要在主节点上配置(不是备用主节点,注意)


启动主节点的NameNode:  hdfs namenode
在备用节点上执行同步数据(格式化): bin/hdfs namenode -bootstrapStandby
在主节点Ctrl+C,关掉NameNode
(启动主节点的NameNode时可以用hadoop-daemon.sh start namenode)
在两个主节点上启动zkfc进程:hadoop-daemon.sh start zkfc


启动1.先启动所有节点的ZooKeeper
     2.在第一台主节点上启动HDFS: start-dfs.sh

第一台主节点如下进程
另一台备用的主节点:
从节点:
       
3.在主节点启动Yarn: start-yarn.sh
这时,主节点的ResourceManager会启动
从节点的NodeManager会启动
4.单独启动备用节点的ResourceManager,在备用节点:
            yarn-daemon.sh start resourcemanager

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 7
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值