MySQL MHA
一、MHA概念
1、MHA 的组成
2、MHA 的特点
二、搭建MySQL+MHA
实验环境、安装包
1、所有服务器,关闭系统防火墙和安全机制
2、修改 master、Slave1、Slave2 节点的主机名
3、修改三台MySQL服务器的主配置文件/etc/my.cnf
4、配置MySQL一主两从
5、主从复制验证
6、安装 MHA 软件
7、在所有服务器上配置无密码认证
8、在 manager 节点上配置 MHA
9、故障模拟
10,故障修复
MySQL MHA
一、MHA概念
MHA(MasterHigh Availability)是一套优秀的MySQL高可用环境下故障切换和主从复制的软件。
MHA 的出现就是解决MySQL 单点的问题。
MySQL故障切换过程中,MHA能做到0-30秒内自动完成故障切换操作。
MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用。
1、MHA 的组成
●MHA Node(数据节点)
MHA Node 运行在每台 MySQL 服务器上。
●MHA Manager(管理节点)
MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。
MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master, 然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。
2、MHA 的特点
●自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失
●使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性
●目前MHA支持一主多从架构,最少三台服务,即一主两从
二、搭建MySQL+MHA
实验思路
1、MHA架构
数据库安装
一主两从
MHA搭建
2、故障模拟
模拟主库失效
备选主库成为主库
原故障主库恢复重新加入到MHA成为从库
注意 :如果你还在为路径不一样而感到头疼的话请看这里
提取码: 4uqa
复制这段链接后打开百度网盘
这里面有一键部署mysql 的脚本 和本篇文章所需要的源码包
一 .1 我的案例基础配置
操作系统 | 主机名 | IP地址 | 软件 |
centos 7.9 | master | 192.168.10.128 | 安装 mysql |
centos 7.9 | slave1 | 192.168.10.129 | 安装 mysql |
centos 7.9 | slave2 | 192.168.10.130 | 安装 mysql |
centos 7.9 | manager | 192.168.10.131 | 无需安装mysql |
一.2 关闭防火墙 和 关闭内核安全机制
[root@centos7 ~]# systemctl stop firewalld
[root@centos7 ~]# systemctl disable firewalld
[root@centos7 ~]# setenforce 0
一.3 修改主机名 (四台服务器一台一条命令)
[root@centos7 ~]# hostnamectl set-hostname master
[root@centos7 ~]# bash
[root@centos7 ~]# hostnamectl set-hostname slave1
[root@centos7 ~]# bash
[root@centos7 ~]# hostnamectl set-hostname slave2
[root@centos7 ~]# bash
[root@centos7 ~]# hostnamectl set-hostname manager
[root@centos7 ~]# bash
一.4 添加主机映射文件 ##4台主机同时执行
[root@centos7 ~]# cat >> /etc/hosts << EOF
192.168.10.128 master
192.168.10.129 slave1
192.168.10.130 slave2
192.168.10.131 manager
EOF
[root@centos7 ~]# ##4台主机同时执行
二.1配置一主两从
时间同步
方法1.搭建ntp服务器
master搭建ntp服务,让其余2台slave同步时间
方法2.同步阿里云时间服务器 4台主机 同时进行 如果时间不一致 继续执行 第二条命令 知道 时间一致 (这里用的是同步阿里云的时间服务器)
[root@centos7 ~]# yum -y install ntpdate
[root@centos7 ~]# ntpdate ntp.aliyun.com
[root@centos7 ~]# date
二.2修改master主机的配置文件
[root@master ~]# vim /etc/my.cnf
[mysqld] ##在mysqld模块下方插入 三行内容
server-id = 1 ## 数值最小的 就是master主库
log-bin = mysql-bin ## 开启二进制日志
log-slave-updates = true ## 允许所有slave 节点同步二级制日志
[root@master ~]# systemctl restart mysqld //重新启动 文件
修改slave1 文件
[root@slave1 ~]# vim /etc/my.cnf
server-id = 2 ##在mysqld模块下方插入 添加5行内容
relay-log = relay-log-bin ##开启中继日志
relay-log-index = slave-relay-bin.index
log-bin = mysql-bin ##开启二进制日志
relay_log_purge=0 ##是否自动删除中继日志,默认值为1。0为手动清除
[root@slave1 ~]# systemctl restart mysqld //重新启动 文件
修改slave2 主机的文件
[root@slave2 ~]# vim /etc/my.cnf
server-id = 3 //在mysqld模块下方插入 添加5行内容
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
log-bin = mysql-bin
relay_log_purge=0 ##是否自动删除中继日志,默认值为1。0为手动清除
[root@slave2 ~]# systemctl restart mysqld //重新启动 文件
二.3在master,slave1,slave2 三个数据库节点上授权两个用户,一个是数据库同步用户,一个是mha监控用户。
mysql -uroot -p
mysql> grant replication slave on *.* to 'myslave'@'192.168.10.%' identified by '123456';
mysql> grant all privileges on *.* to 'mha'@'192.168.10.%' identified by 'manager';
下面三条 理论是不用添加的 ,但是实验时通过MHA检查MySQL主从有报错, 报两个从库通过主机名连接不上主库,所以三个数据库都添加下面的授权
mysql> grant all privileges on *.* to 'mha'@'master' identified by 'manager';
mysql> grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
mysql> grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';
刷新权限
mysql> flush privileges;
二.4查看二进制和同步点
在master主机上查看二级制文件和同步点,
mysql> show master status;
二.5执行同步操作
在slave1 slave2 执行
mysql> change master to
master_host='192.168.10.128',
master_user='myslave', 上面授权的用户
master_password='123456',
master_log_file='mysql-bin.000001', 上面查看出来的二进制文件名
master_log_pos=1745; 1745 是 上面 查看出来的 pos偏移量
mysql> start slave; ##开启进程
- master_host:指定主服务器的地址,即主服务器的IP地址或主机名。
- master_user:指定登录主服务器时使用的用户名。
- master_password:指定登录主服务器时使用的密码。
- master_log_file:指定从哪个二进制日志文件开始复制数据。
- master_log_pos:指定从哪个位置开始复制数据。
二.6slave1,slave2 查看数据同步结果
IO,SQL线程结果都是yes代表同步正常
mysql> show slave status\G;
二.7必须设置两个从库为只读模式
mysql> set global read_only=1; //1是只读,0是读写
二.8插入数据 测试数据库同步
在master主库上插入条数据 ,测试是否同步
mysql> create database test_db; //创建一个库
Query OK, 1 row affected (0.00 sec)
mysql> use test_db; //进入库
Database changed
mysql> create table test(id int); //创建表 里面写入id字段
Query OK, 0 rows affected (0.13 sec)
mysql> desc test; //查看表结构
mysql> insert into test(id) values (1); //在表里面插入数据
Query OK, 1 row affected (0.03 sec)
在两个从库上查看 ,出现如下说明执行成功、
mysql> show databases; //查看库
mysql> use test_db; //进入库
mysql> show tables; //查看表
mysql> select * from test_db.test; //查看表结构
+------+
| id |
+------+
| 1 |
+------+ 1
row in set (0.00 sec)
三. 安装MHA软件
三.1 四台服务器上都安装MHA依赖 环境,首先安装epel源。
[root@manager ~]# cd /etc/yum.repos.d/ //进入yum源配置文件里面
[root@manager ~]# ls //查看
[root@manager yum.repos.d ~]# yum install -y epel-release //base.yum源 里面没有pa语言 所以安装 第三方yum源软件
[root@manager yum.repos.d ~]# yum makecache
[root@manager yum.repos.d ~]# yum install -y perl-DBD-MySQL \
perl-Log-Dispatch perl-Parallel-ForkManager \
perl-Config-Tiny perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker perl-CPAN //安装 MHA 的依赖软件包
三.2 四台服务器上先安装node组件 最后在manager 上面安装manager组件
上传mha4mysql-node-0.57.tar.gz 压缩文件
[root@master ~]# tar zxvf mha4mysql-node-0.57.tar.gz //解压
[root@master ~]# cd mha4mysql-node-0.57 //进入解压目录
[root@master mha4mysql-node-0.57]# perl Makefile.PL 、、执行脚本
[root@master mha4mysql-node-0.57]# make
[root@master mha4mysql-node-0.57]# make install 、、编译安装
在manager上安装manager组件
[root@manager ~]# tar zxvf mha4mysql-manager-0.57.tar.gz
[root@manager ~]# cd mha4mysql-manager-0.57
[root@manager mha4mysql-manager-0.57]# perl Makefile.PL
[root@manager mha4mysql-manager-0.57]# make
[root@manager mha4mysql-manager-0.57]# make install
manager 安装成功后 会在/usr/local/bin 下面生成几个脚本文件
- masterha_check_ssh:检查 MHA 的 SSH 配置状况
- masterha_check_repl:检查 MySQL 主从复制状况。
- masterha_manger:启动 MHA
- masterha_check status:检测当前 MHA 运行状态。
- masterha_master monitor:检测 master 是否宕机。
- masterha_master switch:控制故障转移(自动或者手动)。
- masterha_conf_host:添加或删除配置的 server 信息。
nodo安装后也会在/usr/local/bin生成几个脚本
- save_binary_logs:保存和复制 master 的二进制日志。
- apply_diff_relay_logs:识别差异的中继日志事件并将其差异的事件应用于其他的 slave
- filter_mysqlbinlog:去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)。
- purge_relay_logs:清除中继日志(不会阻塞 SQL 线程)。
四.配置无密码认证
四.1在manager上配置到所有节点的无密码认证
[root@manager ~]# ssh-keygen -t rsa //一路按回车键 、、生成秘钥对
[root@manager ~]# ssh-copy-id 192.168.10.128 //master
[root@manager ~]# ssh-copy-id 192.168.10.129 //slave1
[root@manager ~]# ssh-copy-id 192.168.10.130 //slave2
四.2在master上配置数据库节点的无密码认证
[root@master ~]# ssh-keygen -t rsa //一路按回车键
[root@master ~]# ssh-copy-id 192.168.10.129 //slave1
[root@master ~]# ssh-copy-id 192.168.10.130 //slave2
四.3在slave1 上配置到数据库节点的无密码认证
[root@slave1 ~]# ssh-keygen -t rsa //一路按回车键
[root@slave1 ~]# ssh-copy-id 192.168.10.128 //master
[root@slave1 ~]# ssh-copy-id 192.168.10.130 //slave2
四.3在slave2 上配置到数据库节点的无密码认证
[root@slave2 ~]# ssh-keygen -t rsa //一路按回车键
[root@slave2 ~]# ssh-copy-id 192.168.10.128 //master
[root@slave2 ~]# ssh-copy-id 192.168.10.129 //slave1
五.配置MHA
五.1 在manager节点上复制相关脚本到/usr/local/目录
[root@manager ~]# ll /root/mha4mysql-manager-0.57/samples/scripts/
-rwxr-xr-x 1 mysql mysql 3648 5 月 31 2015 master_ip_failover
-rwxr-xr-x 1 mysql mysql 9872 5 月 25 09:07 master_ip_online_change
-rwxr-xr-x 1 mysql mysql 11867 5 月 31 2015 power_manager
-rwxr-xr-x 1 mysql mysql 1360 5 月 31 2015 send_report
脚本具体作用如下所示。
- master_ip_failover:自动切换 VIP 管理的脚本
- master_ip_online_change:在线切换 vip 的管理的脚本
- power_manager:故障发生后关闭主机的脚本
- send_report:因故障切换后发送报警的脚本
MHA引入VIP有两种方式,一种是使用Keepalived,一种是使用MHA自带的脚本
这里用MHA 自带的脚本
[root@manager ~]# cp /root/mha4mysql-manager-0.57/samples/scripts/* /usr/local/bin
复制“master_ip_failover”脚本到/usr/local/bin 目录,这里使用脚本管理 VIP,也是推荐 的一种方式,生产环境不建议使用 Keepalived。
五.2使用下面内容完整替换 master_ip_failover 文件的内容,IP 部分更换为自己的 IP 地址。
由于该文件修改的地方太多 所以备份源文件 直接在重新创建一个
[root@manager ~]# mv /usr/local/bin/master_ip_failover{,.bak}
[root@manager ~]# cd /usr/local/bin/
[root@manager bin ~]# vim master_ip_failover
[root@manager bin ~]# chmod +x master_ip_failover //加入权限
下面代码块里面的是 master_ip_failover 脚本内容 里面ip需要替换成你自己的网段
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
use MHA::DBHelper;
my (
$command, $ssh_user, $orig_master_host,
$orig_master_ip, $orig_master_port, $new_master_host,
$new_master_ip, $new_master_port, $new_master_user,
$new_master_password
);
my $vip = '192.168.10.200/24'; ##该IP地址替换成你的网段 这个IP地址是下面设置的虚拟VIP漂移地址
my $key = '1';
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip up"; ##ens33 是网卡配置文件
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down"; ##换成你自己的网卡配置文件
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
'new_master_user=s' => \$new_master_user,
'new_master_password=s' => \$new_master_password,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
sub stop_vip() {
return 0 unless ($ssh_user);
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
五.3创建 MHA 软件目录并拷贝配置文件
[root@manager ~]# mkdir /etc/masterha
[root@manager ~]# cp /root/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha
[root@manager ~]# mkdir -p /var/log/masterha/app1 //创建manager的工作目录
这里继续使用MV 备份文件 后 重新创建app1.cnf 替换源文件
[root@manager ~]# mv /etc/masterha/app1.cnf{,.bak}
[root@manager ~]# cd /etc/masterha/
[root@manager masterha ~]# vim app1.cnf
[root@manager masterha ~]# ls
app1.cnf app1.cnf.bak
下面代码块里面的是 master_ip_failover 脚本内容 里面ip需要替换成你自己的IP
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.10.129 -s 192.168.10.130
shutdown_script=""
ssh_user=root
user=mha
[server1]
hostname=192.168.10.128
port=3306
[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.10.129
port=3306
[server3]
hostname=192.168.10.130
port=3306
五.4测试 ssh 无密码认证,如果正常最后会输出 successfully
[root@manager ~]# masterha_check_ssh -conf=/etc/masterha/app1.cnf
五.5测试 mysq 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常
[root@manager ~]# masterha_check_repl -conf=/etc/masterha/app1.cnf
采用设置软连接的方式解决,三台 MySQL 上都需要执行。
[root@master ~]# ln -s /usr/local/mysql/bin/mysqlbinlog /usr/bin/mysqlbinlog
[root@master ~]# ln -s /usr/local/mysql/bin/mysql /usr/bin/mysql之后在执行一次命令
[root@manager ~]# masterha_check_repl -conf=/etc/masterha/app1.cnf
五.6 首次配置 MHA 的 VIP 地址需要手动进行配置,在master 上执行如下命令
漂移地址后面跟的掩码多少位 根据自己的情况进行配置
[root@master ~]# ifconfig ens33:1 192.168.10.200/24 //漂移地址
[root@master ~]# ifconfig ens33:1
五.7manager 启动MHA
[root@manager ~]# nohup masterha_manager \
--conf=/etc/masterha/app1.cnf \
--remove_dead_master_conf --ignore_last_failover \
</dev/null> /var/log/masterha/app1/manager.log 2>&1 &
- --remove_dead_master_conf 该参数代表当发生主从切换后,老的主库的 IP 地址将会 从配置文件中移除。
- --ignore_last_failover 在缺省情况下,如果 MHA 检测到连续发生宕机,且两次宕机间 隔不足 8 小时的话,则不会进行故障转移,之所以这样限制是为了避免 ping-pong 效 应。该参数代表忽略上次 MHA 触发切换产生的文件,默认情况下,MHA 发生切换后 会在日志中记录,下次再切换的时候如果发现该目录下存在该文件将不允许触发切换, 除非:在第一次切换后收到删除该文件。为了方便,这里设置为–ignore_last_failover。
[root@manager ~]# ps -ef |grep masterha
若要关闭 manager 服务,可以使用如下命令。 这步省掉 不用做
或者可以直接采用 kill 进程ID的方式关闭。
[root@manager bin]# masterha_stop --conf=/etc/masterha/app1.cnf
五.8查看 MHA 状态,可以看到当前的 master 节点。
[root@manager ~]# masterha_check_status --conf=/etc/masterha/app1.cnf
五.9查看 MHA 日志,也可以看到当前的 master 是 192.168.10.128,
[root@manager ~]# cat /var/log/masterha/app1/manager.log
六.模拟master 故障转移
六.1.自动切换
关闭当前的 master 服务(以下三种方法选择一种)
[root@master ~]# pkill -9 mysql
[root@master ~]# systemctl stop mysqld
[root@master ~]# mysqladmin -uroot -p shutdown
六.2manager 观察 MHA 日志,如果自动切换成功,最后会输出 successfu 字样
[root@manager bin]# tailf /var/log/masterha/app1/manager.log
注意:VIP地址不会因为manager节点停止而消失。
六.3 正常自动切换一次后,MHA 进程会退出。MHA 会自动修改 app1.cnf 文件内容, 将宕机的 mysql 节点删除。查看slave1是否接管 VIP。
[root@slave1 /]# ifconfig ens33:1
[root@manager ~]# vim /etc/masterha/app1.cnf //查看文件是否发生变化
如主库恢复正常后,使其重新加入群集,并将 master 作为新的从库。
六.4启动原来的master 主库 //先查看新的master上面的二进制日志和pos位置
[root@slave1 ~]# mysql -uroot -p
mysql> show master status; //查看最新的pos
在master 主机上执行 加入集群 成为从库
[root@master ~]# systemctl start mysqld
[root@master ~]# mysql -uroot -p
#输入密码
mysql> CHANGE MASTER TO
MASTER_HOST='192.168.10.129',
MASTER_PORT=3306,
MASTER_USER='myslave',
MASTER_PASSWORD='123456',
MASTER_LOG_FILE='mysql-bin.000001',
MASTER_LOG_POS=1745;
Query OK, 0 rows affected, 2 warnings (0.20 sec)
六.5原来的master启动从库同步并设置为只读
mysql> start slave;
mysql> show slave status\G;
mysql> set global read_only=1;
六.6 停掉当前主库(slave1)的同步进程,不然下次作为从库同步会报错
mysql> stop slave; 、、关闭从库
mysql> reset slave; 、、清除所有的终极日志
七.手动切换
七.1手动修改/etc/masterha/app1.cnf 文件,可以手动把宕机的master 作为主库继续 提供服务,注意手动切换 VIP 不会漂移。重新检查数据库主从状态是否正常, 修改后的 app1.cnf文件内容如下:
[root@manager ~]# vim /etc/masterha/app1.cnf
[server1] //手动添加
candidate_ master=1
check_repl_delay=0
hostname=192.168.10.128 //尽量手打上去 不然 报错
port=3306
server2 这里在删除两行内容
[server2]
hostname=192.168.10.129
port=3306
[server3]
hostname=192.168.10.130
port=3306 改完之后就是这样
七.2 检查无密码认证和 MySQL 主从状态是否正常,最后启动 MHA 检查是否正常。 执行nohup命令 再次重新启动
[root@manager ~]# nohup masterha_manager \
--conf=/etc/masterha/app1.cnf --remove_dead_master_conf \
--ignore_last_failover </dev/null> \
/var/log/masterha/app1/manager.log 2>&1 &
[root@manager ~]# ps -ef |grep masterha
七.3 查看主库是slave1
[root@manager ~]# masterha_check_status --conf=/etc/masterha/app1.cnf
app1 (pid:9143) is running(0:PING_OK), master:192.168.10.129
七.4 停止 MHA,因为手动切换不能启动 MHA。
[root@manager ~]# masterha_stop --conf=/etc/masterha/app1.cnf
七.5 手动设置当前的主库 slave1 为 dead,最后的报错没有影响。
[root@manager ~]# masterha_master_switch --conf=/etc/masterha/app1.cnf \
--master_state=dead --dead_master_host=192.168.10.129 //认定 10.129 死亡 换回10.128为主机
七.6再次检查主库的状态,说明slave1已经停止。
[root@manager ~]# masterha_check_status --conf=/etc/masterha/app1.cnf
app1 is stopped(2:NOT_RUNNING).
七.7设置新的 master ,在输入命令后会有交互需要输入 yes。另外需要注释手动切换 脚本/usr/local/bin/master_ip_online_change 里面的 152 行,不然会报错。
[root@manager ~]# vim /usr/local/bin/master_ip_online_change
#FIXME_xxx_drop_app_user($orig_master_handler); //152行添加注释#
七.8 重新执行设置新的 master 为 alive 命令,出现 completed successfully 字样,表示 手动切换成功。
[root@manager ~]# masterha_master_switch --conf=/etc/masterha/app1.cnf \
--master_state=alive --new_master_host=192.168.10.128 \
--orig_master_is_new_slave
//交互页面 输入 yes
注意:手动切换master后,记得重新恢复主从复制集群; 注意手动切换主库,VIP不会漂移。
需要手动切换漂移地址
slave1 slave2 执行命令
mysql > set global read_only=1;
master 执行命令
[root@master ~]#
mysql > stop slave;
mysql > reset slave;
启动MHA
nohup masterha_manager \
--conf=/etc/masterha/app1.cnf \
--remove_dead_master_conf --ignore_last_failover \
</dev/null> /var/log/masterha/app1/manager.log 2>&1 &
删除 slave1 节点的 VIP 漂移地址
ifconfig ens33:1 down
在master 节点创建VIP地址
ifconfig ens33:1 192.168.10.200
最后执行
ifcongfig ens33:1 查看漂移地址