一、背景
之前由于没有考虑周全,在部署zookeeper时部署了单机的,现在想要升级为高可用的集群,提高容错。
当前情况:
当前有3台机器
z1机器是已经部署好的zookeeper单节点
查看服务状态:
查看数据内容:
完成后效果:
z1、z2、z3三台机器组成zookeeper集群,并且保证之前的数据不能丢失
二、实验步骤
刚开始启动时,由于镜像实验的zookeeper组件,启动镜像时默认三台机器都启动,但发现都是standalone模式。
#查看集群状态 (需在脚本目录下执行)
./ssh_all.sh zkServer.sh status
1)关闭z2,z3机器的zookeeper服务
#在Z2中执行
zkServer.sh stop
#在Z3中执行
zkServer.sh stop
查看状态:
2)新增节点z2,并启动
修改z2节点/data/zookeeper/myid为2
#进入存放myid的目录下并修改文件
cd /data/zookeeper/
vi myid
修改/opt/zookeeper-3.4.8/conf/zoo.cfg 文件,配置如下
#进入配置文件目录并修改文件
cd /opt/zookeeper-3.4.8/conf/
vi zoo.cfg
配置后如下
# 省略其他配置
...
# 配置z1和z2
server.1=z1-23568:2888:3888
server.2=z2-23568:2888:3888
参数解释:
server.x=[hostname]:[nnnnn]:[nnnnn]
# 这里的x是一个数字,与myid文件中的id是一致的。右边可以配置两个端口,第一个端口用于Follower和Leader之间的数据同步和其它通信,第二个端口用于Leader选举过程中投票通信。
#参数server.x=[hostname]:[nnnnn]:[nnnnn]用于配置服务器节点的地址和端口。其中,x是一个数字,表示服务器节点的编号,从1开始递增;[hostname]是服务器节点的主机名或IP地址;[nnnnn]是服务器节点的监听端口号;[nnnnn]是服务器节点之间通信时使用的端口号。
执行zkServer.sh start 启动服务, 此时z1还是standalone模式,z2找不到leader
#在Z2中执行
zkServer.sh start
#查看集群状态 (需在脚本目录下执行)
./ssh_all.sh zkServer.sh status
3)修改节点z1,并重启
修改/opt/zookeeper-3.4.8/conf/zoo.cfg 文件,配置如下
#进入配置文件目录并修改文件
cd /opt/zookeeper-3.4.8/conf/
vi zoo.cfg
配置后如下
# 省略其他配置
...
# 配置z1和z2
server.1=z1-23568:2888:3888
server.2=z2-23568:2888:3888
执行zkServer.sh restart 重新启动服务, 此时z1是leader,z2是follower,z2同步z1的数据
#在Z1中执行
zkServer.sh restart
#查看集群状态 (需在脚本目录下执行)
./ssh_all.sh zkServer.sh status
4)增加节点z3,并启动
修改/opt/zookeeper-3.4.8/conf/zoo.cfg 文件,配置如下
#进入配置文件目录并修改文件
cd /opt/zookeeper-3.4.8/conf/
vi zoo.cfg
配置后如下
# 省略其他配置
...
# 配置z1、z2、z3
server.1=z1-23568:2888:3888
server.2=z2-23568:2888:3888
server.3=z3-23568:2888:3888
执行zkServer.sh start 启动服务,此时z3是follower,但z1,z2不知道z3的存在
#在Z3中执行
zkServer.sh start
#查看集群状态 (需在脚本目录下执行)
./ssh_all.sh zkServer.sh status
5)修改节点z2,并重启
修改/opt/zookeeper-3.4.8/conf/zoo.cfg 文件,配置如下
#进入配置文件目录并修改文件
cd /opt/zookeeper-3.4.8/conf/
vi zoo.cfg
配置后如下
# 省略其他配置
...
# 配置z1、z2、z3
server.1=z1-23568:2888:3888
server.2=z2-23568:2888:3888
server.3=z3-23568:2888:3888
执行zkServer.sh restart 重新启动服务, 此时z2知道z3的存在,leader还是z1,但z1不知道z3的存在
#在Z2中执行
zkServer.sh restart
#查看集群状态 (需在脚本目录下执行)
./ssh_all.sh zkServer.sh status
6)修改节点z1,并重启
修改/opt/zookeeper-3.4.8/conf/zoo.cfg 文件,配置如下
#进入配置文件目录并修改文件
cd /opt/zookeeper-3.4.8/conf/
vi zoo.cfg
配置后如下
# 省略其他配置
...
# 配置z1、z2、z3
server.1=z1-23568:2888:3888
server.2=z2-23568:2888:3888
server.3=z3-23568:2888:3888
执行zkServer.sh restart 重新启动服务, 此时在z2,z3中选择leader,z1变成follower
#在Z1中执行
zkServer.sh restart
#查看集群状态 (需在脚本目录下执行)
./ssh_all.sh zkServer.sh status
三、测试集群
分别在z1、z2、z3上查看服务状态
#查看集群状态 (需在脚本目录下执行)
#先关闭,再按顺序重启
./ssh_all.sh zkServer.sh stop
./ssh_all.sh zkServer.sh start
./ssh_all.sh zkServer.sh status
Z1(myid=1)、Z2(myid=2)、Z3(myid=3)三台机器选举流程:
- 服务启动后,每台机器都选择自己
- Z1投自己,所以是一票
- Z2启动后,根据myid大小,Z1投Z2,Z2投自己
- Z2拥有大于集群半数的票数,当选leader
- Z3启动后,投给自己,但是已经有leader,所以自己变为follower
分别在z1、z2、z3上用zkCli.sh 查看数据,发现三台机器的数据都没有丢失。
#在Z1上执行
zkCli.sh -server z1-23568:2181
ls /
#在Z2上执行
zkCli.sh -server z2-23568:2181
ls /
#在Z3上执行
zkCli.sh -server z3-23568:2181
ls /
注:实验平台为海牛部落实验平台