zookeeper实验之单节点升级集群

一、背景

之前由于没有考虑周全,在部署zookeeper时部署了单机的,现在想要升级为高可用的集群,提高容错。

当前情况:

当前有3台机器

z1机器是已经部署好的zookeeper单节点

查看服务状态:

在这里插入图片描述

查看数据内容:

在这里插入图片描述

完成后效果:

z1、z2、z3三台机器组成zookeeper集群,并且保证之前的数据不能丢失

二、实验步骤

刚开始启动时,由于镜像实验的zookeeper组件,启动镜像时默认三台机器都启动,但发现都是standalone模式。

#查看集群状态 (需在脚本目录下执行)
./ssh_all.sh zkServer.sh status

在这里插入图片描述

1)关闭z2,z3机器的zookeeper服务

#在Z2中执行
zkServer.sh stop
#在Z3中执行
zkServer.sh stop

查看状态:
在这里插入图片描述

2)新增节点z2,并启动

修改z2节点/data/zookeeper/myid为2

#进入存放myid的目录下并修改文件
cd /data/zookeeper/
vi myid

修改/opt/zookeeper-3.4.8/conf/zoo.cfg 文件,配置如下

#进入配置文件目录并修改文件
cd /opt/zookeeper-3.4.8/conf/
vi zoo.cfg

配置后如下

# 省略其他配置
...
# 配置z1和z2
server.1=z1-23568:2888:3888
server.2=z2-23568:2888:3888

在这里插入图片描述

参数解释:

server.x=[hostname]:[nnnnn]:[nnnnn]
# 这里的x是一个数字,与myid文件中的id是一致的。右边可以配置两个端口,第一个端口用于Follower和Leader之间的数据同步和其它通信,第二个端口用于Leader选举过程中投票通信。
#参数server.x=[hostname]:[nnnnn]:[nnnnn]用于配置服务器节点的地址和端口。其中,x是一个数字,表示服务器节点的编号,从1开始递增;[hostname]是服务器节点的主机名或IP地址;[nnnnn]是服务器节点的监听端口号;[nnnnn]是服务器节点之间通信时使用的端口号。

执行zkServer.sh start 启动服务, 此时z1还是standalone模式,z2找不到leader

#在Z2中执行
zkServer.sh start 
#查看集群状态 (需在脚本目录下执行)
./ssh_all.sh zkServer.sh status

在这里插入图片描述

3)修改节点z1,并重启

修改/opt/zookeeper-3.4.8/conf/zoo.cfg 文件,配置如下

#进入配置文件目录并修改文件
cd /opt/zookeeper-3.4.8/conf/
vi zoo.cfg

配置后如下

# 省略其他配置
...
# 配置z1和z2
server.1=z1-23568:2888:3888
server.2=z2-23568:2888:3888

在这里插入图片描述

执行zkServer.sh restart 重新启动服务, 此时z1是leader,z2是follower,z2同步z1的数据

#在Z1中执行
zkServer.sh restart  
#查看集群状态 (需在脚本目录下执行)
./ssh_all.sh zkServer.sh status

在这里插入图片描述

4)增加节点z3,并启动

修改/opt/zookeeper-3.4.8/conf/zoo.cfg 文件,配置如下

#进入配置文件目录并修改文件
cd /opt/zookeeper-3.4.8/conf/
vi zoo.cfg

配置后如下

# 省略其他配置
...
# 配置z1、z2、z3
server.1=z1-23568:2888:3888
server.2=z2-23568:2888:3888
server.3=z3-23568:2888:3888

在这里插入图片描述

执行zkServer.sh start 启动服务,此时z3是follower,但z1,z2不知道z3的存在

#在Z3中执行
zkServer.sh start 
#查看集群状态 (需在脚本目录下执行)
./ssh_all.sh zkServer.sh status

在这里插入图片描述

5)修改节点z2,并重启

修改/opt/zookeeper-3.4.8/conf/zoo.cfg 文件,配置如下

#进入配置文件目录并修改文件
cd /opt/zookeeper-3.4.8/conf/
vi zoo.cfg

配置后如下

# 省略其他配置
...
# 配置z1、z2、z3
server.1=z1-23568:2888:3888
server.2=z2-23568:2888:3888
server.3=z3-23568:2888:3888

在这里插入图片描述

执行zkServer.sh restart 重新启动服务, 此时z2知道z3的存在,leader还是z1,但z1不知道z3的存在

#在Z2中执行
zkServer.sh restart  
#查看集群状态 (需在脚本目录下执行)
./ssh_all.sh zkServer.sh status

在这里插入图片描述

6)修改节点z1,并重启

修改/opt/zookeeper-3.4.8/conf/zoo.cfg 文件,配置如下

#进入配置文件目录并修改文件
cd /opt/zookeeper-3.4.8/conf/
vi zoo.cfg

配置后如下

# 省略其他配置
...
# 配置z1、z2、z3
server.1=z1-23568:2888:3888
server.2=z2-23568:2888:3888
server.3=z3-23568:2888:3888

在这里插入图片描述

执行zkServer.sh restart 重新启动服务, 此时在z2,z3中选择leader,z1变成follower

#在Z1中执行
zkServer.sh restart  
#查看集群状态 (需在脚本目录下执行)
./ssh_all.sh zkServer.sh status

在这里插入图片描述

三、测试集群

分别在z1、z2、z3上查看服务状态

#查看集群状态 (需在脚本目录下执行)
#先关闭,再按顺序重启
./ssh_all.sh zkServer.sh stop
./ssh_all.sh zkServer.sh start
./ssh_all.sh zkServer.sh status

在这里插入图片描述

Z1(myid=1)、Z2(myid=2)、Z3(myid=3)三台机器选举流程:

  1. 服务启动后,每台机器都选择自己
  2. Z1投自己,所以是一票
  3. Z2启动后,根据myid大小,Z1投Z2,Z2投自己
  4. Z2拥有大于集群半数的票数,当选leader
  5. Z3启动后,投给自己,但是已经有leader,所以自己变为follower

分别在z1、z2、z3上用zkCli.sh 查看数据,发现三台机器的数据都没有丢失。

#在Z1上执行
zkCli.sh -server z1-23568:2181
ls /

在这里插入图片描述

#在Z2上执行
zkCli.sh -server z2-23568:2181
ls /

在这里插入图片描述

#在Z3上执行
zkCli.sh -server z3-23568:2181
ls /

在这里插入图片描述
注:实验平台为海牛部落实验平台

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值