【数据库】MHA高可用配置及故障切换

文章目录


一、MHA 概念

1. 什么是 MHA

  MHA (Master High AvailabilityManager and tools for MySOL) 目前在MySOL高可用方面是一个相对成熟的解决方案,用Perl语言编写的一个脚本管理工具。MHA的出现解决了Mysql单点的问题,在Mysql故障过程中,MHA能做到0~30秒内自动完成故障切换,MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用。

2. MHA 的组成

  • MHA Node(数据节点)

    MHA Node 运行在每台 MySQL 服务器上。

  • MHA Manager(管理节点)

    MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。

3. MHA 的特点

  自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失。

  使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性。

  目前MHA支持一主多从架构,最少三台服务器,即一主两从。

4. MHA 的工作过程

  MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master, 然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Id0XJbqG-1687860603434)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627093042381.png)]

二、MMM 概念

1. 什么是 MMM

  MMM(Master-Master replication manager for MvSQL,MySQL主主复制管理器)是一套支持双主故障切换和双主日常管理的脚本程序。MMM 使用 Perl 语言开发,主要用来监控和管理 MySQL Master-Master (双主)复制。

  虽然叫做双主复制,但是业务上同一时刻只允许对一个主进行写入,另一台备选主上提供部分读服务,以加速在主主切换时备选主的预热,可以说MMM这套脚本程序一方面实现了故障切换的功能,另一方面其内部附加的工具脚本也可以实现多个 Slave 的 read 负载均衡。

2. MMM 的使用方式

  MMM提供了自动和手动两种方式移除一组服务器中复制延迟较高的服务器的虚拟ip,同时它还可以备份数据,实现两节点之间的数据同步等。由于MMM无法完全保证数据的一致性,所以MMM适用于对数据的一致性要求不是很高、但是又想最大程度地保证业务可用性的场景。

3. MMM 的架构说明

  • mmm_mon:监控进程,负责所有的监控工作,决定和处理所有节点角色活动。此脚本需要在监控主机上运行。
  • mmm_agent:运行在每个MySQL服务器上的代理进程,完成监控的探针工作和执行简单的远端服务设置。此脚本需要在被监管机上运行。
  • mmm_control:一个简单的脚本,提供管理 mmm_mon 进程的命令。
  • mysql-mmm 的监管端会提供多个虚拟 IP(VIP),包括一个可写 VIP,多个可读 VIP,通过监管的管理,这些 IP 会绑定在可用 MySQL 之上,当某一台 MySQL 宕机时,监管会将 VIP 迁移至其他 MySQL。

4. MMM 的工作过程

  客户端会根据vip进行读写分离,写的操作发送给write-vip,读的操作发送给read-vip,实现负载均衡。

三、搭建 MHA 以及故障模拟

1.搭建思路、故障模拟、环境配置

1.1 MHA 架构

数据库安装
一主两从
MHA搭建

1.2 故障模拟

主库失效
备选主库成为主库
原故障主库恢复重新加入到MHA成为从库

1.3 环境配置

#服务器相关ip设置以及需要安装的组件
MHA manager 节点服务器: manager/192.168.145.15 ,安装MHA node 和 manager 组件
Master 节点服务器: mysql1/192.168.145.45 ,安装mysql5.7、MHA node 组件
Slave1 节点服务器: mysql2/192.168.145.105 ,安装mysql5.7、MHA node 组件
Slave2 节点服务器: mysql3/192.168.145.120 ,安装mysql5.7、MHA node 组件

#所有服务器关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
setenforce 0

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-VOxBrTp3-1687860603437)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627134916436.png)]

2. 搭建 Mysql 的 MHA 高可用群集

2.1 所有服务器安装 mysql15.7

Master、Slave1、Slave2 节点上安装 mysql5.7

2.2 修改节点的主机名以及域名解析

#四台服务器都修改主机名
hostnamectl set-hostname manager
hostnamectl set-hostname Mysql1
hostnamectl set-hostname Mysql2
hostnamectl set-hostname Mysql3

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-tZAW1RNl-1687860603438)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627135506506.png)]

#四台服务器都修改域名解析
vim /etc/hosts
192.168.145.15 manager
192.168.145.45 mysql1
192.168.145.105 mysql2
192.168.145.120 mysql3

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-zyYhmkRY-1687860603439)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627135828468.png)]

2.3 修改节点的配置文件

#master、slave1、slave2服务器配置二进制文件和中继日志文件
vim /etc/my.cnf

server-id = 1				#三台服务器的 server-id 不能一样
log_bin = master-bin
log-slave-updates = true
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index

systemctl restart mysqld	#重启myslqd服务

在这里插入图片描述

2.4 创建软链接

ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/

在这里插入图片描述

2.5 配置 mysql 一主两从

所有数据库节点进行 mysql 授权
mysql -uroot -p
grant replication slave on *.* to 'myslave'@'192.168.145.%' identified by '123456';		#从数据库同步使用
grant all privileges on *.* to 'manager'@'192.168.145.%' identified by 'mha123';		#manager 使用

grant all privileges on *.* to 'manager'@'mysql1' identified by 'mha123';				#防止从库通过主机名连接不上主库
grant all privileges on *.* to 'manager'@'mysql2' identified by 'mha123';
grant all privileges on *.* to 'manager'@'mysql3' identified by 'mha123';
flush privileges;

在这里插入图片描述

在 Master 节点查看二进制文件和同步点
mysql> show master status;

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-sCUO9jcv-1687860888864)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627143536202.png)]

在 Slave1、Slave2 节点执行同步操作
change master to master_host='192.168.145.45',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=2052; 

start slave;

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-OEJc7lQq-1687860603446)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627144504756.png)]

在 Slave1、Slave2 节点查看数据同步结果
show slave status\G		
#确保 IO 和 SQL 线程都是 Yes,代表同步正常。
Slave_IO_Running: Yes
Slave_SQL_Running: Yes

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-gITQ0I4f-1687860603448)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627144534704.png)]

两个从库必须设置为只读模式
set global read_only=1;

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-HTY7jKZv-1687860603449)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627144744997.png)]

插入数据测试数据库同步
##在 Master 主库插入条数据,测试是否同步##
create database test_db;
use test_db;
create table test(id int);
insert into test(id) values (1);

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9nN39ykU-1687860603450)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627145001716.png)]

2.6 安装 manager 软件

所有服务器上都安装 manager 依赖的环境,首先安装 epel 源
yum install epel-release --nogpgcheck -y

yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN

在这里插入图片描述

安装 node 组件
#对于每个操作系统版本不一样,这里 CentOS7.4 必须选择 0.57 版本。
#在所有服务器上必须先安装 node 组件,最后在 manager-manager 节点上安装 manager 组件,因为 manager 依赖 node 组件。
cd /opt
tar zxvf manager4mysql-node-0.57.tar.gz
cd manager4mysql-node-0.57
perl Makefile.PL
make && make install

#manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个:
masterha_check_ssh 检查 manager 的 SSH 配置状况
masterha_check_repl 检查 MySQL 复制状况
masterha_manger 启动 manager的脚本
masterha_check_status 检测当前 manager 运行状态
masterha_master_monitor 检测 master 是否宕机
masterha_master_switch 控制故障转移(自动或者手动)
masterha_conf_host 添加或删除配置的 server 信息
masterha_stop  关闭manager

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8dS7G1sH-1687860603452)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627150438175.png)]

安装 manager 组件
cd /opt
tar zxvf manager4mysql-manager-0.57.tar.gz
cd manager4mysql-manager-0.57
perl Makefile.PL
make && make install

#node 组件安装后也会在/usr/local/bin 下面会生成几个脚本(这些工具通常由 managerManager 的脚本触发,无需人为操作)主要如下:
save_binary_logs 保存和复制 master 的二进制日志
apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的 slave
filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(manager 已不再使用这个工具)
purge_relay_logs 清除中继日志(不会阻塞 SQL 线程)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-RGTCEqm2-1687860603453)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627151105269.png)]

2.7 在所有服务器上配置无密码认证

在 manager 节点上配置到所有数据库节点的无密码认证
ssh-keygen -t rsa				#一路按回车键
vim /etc/ssh/ssh_config
StrictHostKeyChecking no			#取消注释35行,将ask修改为no

ssh-copy-id 192.168.80.45		#密码为123
ssh-copy-id 192.168.80.105
ssh-copy-id 192.168.80.120

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-FWSCiIX2-1687860603455)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627153153653.png)]

在 mysql1 上配置到数据库节点 mysql2 和 mysql3 的无密码认证
ssh-keygen -t rsa
vim /etc/ssh/ssh_config
StrictHostKeyChecking no			#取消注释35行,将ask修改为no

ssh-copy-id 192.168.145.105
ssh-copy-id 192.168.145.120

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pbeVjv6U-1687860603457)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627153617954.png)]

在 mysql2 上配置到数据库节点 mysql1 和 mysql3 的无密码认证
ssh-keygen -t rsa
vim /etc/ssh/ssh_config
StrictHostKeyChecking no			#取消注释35行,将ask修改为no

ssh-copy-id 192.168.145.45
ssh-copy-id 192.168.145.120

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-cmotWJh3-1687860603458)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627153847907.png)]

在 mysql3 上配置到数据库节点 mysql1 和 mysql2 的无密码认证
ssh-keygen -t rsa
vim /etc/ssh/ssh_config
StrictHostKeyChecking no			#取消注释35行,将ask修改为no

ssh-copy-id 192.168.145.45
ssh-copy-id 192.168.145.105

在这里插入图片描述

2.8 在 manager 节点上配置 manager

在 manager 节点上复制相关脚本到/usr/local/bin 目录
cd /opt/mha4mysql-manager-0.57/samples/
cp -a scripts/ /usr/local/bin/		#拷贝后会有四个执行文件
ll /usr/local/bin/scripts/

master_ip_failover  		#自动切换时 VIP 管理的脚本
master_ip_online_change 	#在线切换时 vip 的管理
power_manager 				#故障发生后关闭主机的脚本
send_report 				#因故障切换后发送报警的脚本

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-lNUldSAh-1687860603459)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627155108284.png)]

复制自动切换时 VIP 管理的脚本到 /usr/local/bin 目录
#复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换
cd /usr/local/bin/
cp scripts/master_ip_failover ./
修改脚本文件
#删除原有内容,直接复制并修改vip相关参数。可在拷贝前输入 :set paste 解决vim粘贴乱序问题
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
 
use Getopt::Long;
 
my (
    $command, $orig_master_host, $orig_master_ip,$ssh_user,
    $orig_master_port, $new_master_host, $new_master_ip,$new_master_port,
    $orig_master_ssh_port,$new_master_ssh_port,$new_master_user,$new_master_password
);
 
# 这里定义的虚拟IP配置要注意,这个ip必须要与你自己的集群在同一个网段,否则无效
my $vip = '192.168.145.200/24';
my $key = '1';
# 这里的网卡名称 “ens33” 需要根据你机器的网卡名称进行修改
# 如果多台机器直接的网卡名称不统一,有两种方式,一个是改脚本,二是把网卡名称修改成统一
# 我这边实际情况是修改成统一的网卡名称
my $ssh_start_vip = "sudo /sbin/ifconfig ens32:$key $vip";
my $ssh_stop_vip = "sudo /sbin/ifconfig ens32:$key down";
my $ssh_Bcast_arp= "sudo /sbin/arping -I ens32 -c 3 -A $vip";

GetOptions(
    'command=s'          => \$command,
    'ssh_user=s'         => \$ssh_user,
    'orig_master_host=s' => \$orig_master_host,
    'orig_master_ip=s'   => \$orig_master_ip,
    'orig_master_port=i' => \$orig_master_port,
    'orig_master_ssh_port=i' => \$orig_master_ssh_port,
    'new_master_host=s'  => \$new_master_host,
    'new_master_ip=s'    => \$new_master_ip,
    'new_master_port=i'  => \$new_master_port,
    'new_master_ssh_port' => \$new_master_ssh_port,
    'new_master_user' => \$new_master_user,
    'new_master_password' => \$new_master_password
 
);
 
exit &main();
 
sub main {
    $ssh_user = defined $ssh_user ? $ssh_user : 'root';
    print "\n\nIN SCRIPT TEST====$ssh_user|$ssh_stop_vip==$ssh_user|$ssh_start_vip===\n\n";
 
    if ( $command eq "stop" || $command eq "stopssh" ) {
 
        my $exit_code = 1;
        eval {
            print "Disabling the VIP on old master: $orig_master_host \n";
            &stop_vip();
            $exit_code = 0;
        };
        if ($@) {
            warn "Got Error: $@\n";
            exit $exit_code;
        }
        exit $exit_code;
    }
    elsif ( $command eq "start" ) {
 
        my $exit_code = 10;
        eval {
            print "Enabling the VIP - $vip on the new master - $new_master_host \n";
            &start_vip();
        &start_arp();
            $exit_code = 0;
        };
        if ($@) {
            warn $@;
            exit $exit_code;
        }
        exit $exit_code;
    }
    elsif ( $command eq "status" ) {
        print "Checking the Status of the script.. OK \n";
        exit 0;
    }
    else {
        &usage();
        exit 1;
    }
}
 
sub start_vip() {
    `ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
sub stop_vip() {
    `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
 
sub start_arp() {
    `ssh $ssh_user\@$new_master_host \" $ssh_Bcast_arp \"`;
}
sub usage {
    print
    "Usage: master_ip_failover --command=start|stop|stopssh|status --ssh_user=user --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-L8oBSrxn-1687860603460)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627160243947.png)]

创建 manager
#软件目录并拷贝配置文件,这里使用mysql-mha.cnf配置文件来管理 mysql 节点服务器
mkdir -p /opt/mysql-mha/mha						#manager节点配置
mkdir -p /opt/mysql-mha/mha-node				#所有节点配置,用作为mha远程工作目录

cd /opt/mysql-mha/

vim mysql-mha.cnf								#编写配置文件
[server default]
manager_log=/opt/mysql-mha/manager.log
manager_workdir=/opt/mysql-mha/mha
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
user=manager
password=mha123
port=3306
ping_interval=1
remote_workdir=/opt/mysql-mha/mha-node
repl_user=myslave
repl_password=123456
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.145.105 -s 192.168.145.120
shutdown_script=""
ssh_user=root

[server1]
hostname=192.168.145.45
port=3306

[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.145.105
port=3306

[server3]
hostname=192.168.145.120
port=3306

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-dJl1XRnQ-1687860603462)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627165712034.png)]

2.9 在 Master 节点上手动开启虚拟IP

/sbin/ifconfig ens32:1 192.168.145.200/24

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-HBYsUImi-1687860603463)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627163122945.png)]

2.10 在 manager 节点上测试

#测试 ssh 无密码认证,如果正常最后会输出 successfully
masterha_check_ssh -conf=/opt/mysql-mha/mysql-mha.cnf

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-EQl7UDA0-1687860603464)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627163844933.png)]

2.11 在 manager 节点上测试 mysql 主从连接情况

#测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常
masterha_check_repl -conf=/opt/mysql-mha/mysql-mha.cnf

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LP1Ddhdu-1687860603465)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627165953433.png)]

2.12 在 manager 节点上启动 MHA

nohup masterha_manager \
--conf=/opt/mysql-mha/mysql-mha.cnf \
--remove_dead_master_conf \
--ignore_last_failover < /dev/null > /var/log/mha_manager.log 2>&1 &

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-HjkAZvIL-1687860603466)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627171837653.png)]

2.13 查看 MHA 状态

方法一:直接命令查看
masterha_check_status --conf=/opt/mysql-mha/mysql-mha.cnf

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-hj0Vwceu-1687860603467)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627171902797.png)]

方法二:查看 MHA 日志
cat /opt/mysql-mha/manager.log | grep "current master"

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-5xULfExG-1687860603469)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627171933184.png)]

2.14 查看 mysql1 的 VIP 地址

#查看 mysql1 的 VIP 地址 192.168.80.200 是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。
ifconfig

#若要关闭 manager 服务,可以使用如下命令。
masterha_stop --conf=/opt/mysql-mha/mysql-mha.cnf
或者可以直接采用 kill 进程 ID 的方式关闭。

3. 故障模拟

#在 manager 节点上监控观察日志记录
tail -f /opt/mysql-mha/manager.log

#在 Master 节点 mysql1 上停止mysql服务
systemctl stop mysqld
或
pkill -9 mysql

#正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 mysql1 节点删除。查看 mysql2 是否接管 VIP
ifconfig

故障切换备选主库的算法:
1.一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
2.数据一致的情况下,按照配置文件顺ZXDQ1序,选择备选主库。
3.设定有权重(candidate_master=1),按照权重强制指定备选主。
(1)默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
(2)如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8R045yqQ-1687860603469)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627180515502.png)]

3.1 修复mysql

systemctl restart mysqld

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-goXNX9oy-1687860603471)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627175004385.png)]

3.2 修复主从

#在现主库服务器 mysql2 查看二进制文件和同步点
show master status;

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-QAltccB8-1687860603472)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627180419420.png)]

#在原主库服务器 mysql1 执行同步操作
change master to master_host='192.168.145.105',master_user='myslave',master_password='123456',master_log_file='mysql-bin.000003',master_log_pos=145;

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qEsyfJyj-1687860603474)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627180448280.png)]

3.3 在 manager 节点上修改配置文件app1.cnf

vim /opt/mysql-mha/mysql-mha.cnf
......
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.145.45 -s 192.168.145.120
......

[server1]
hostname=192.168.145.105
port=3306

[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.145.45
port=3306

[server3]
hostname=192.168.145.120
port=3306

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-mPtvQspb-1687860603475)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627180019143.png)]

3.4 在 manager 节点上启动 MHA

nohup masterha_manager \
--conf=/opt/mysql-mha/mysql-mha.cnf \
--remove_dead_master_conf \
--ignore_last_failover < /dev/null > /var/log/mha_manager.log 2>&1 &

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-lA6YpQf7-1687860603475)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627180108872.png)]

masterha_check_status --conf=/opt/mysql-mha/mysql-mha.cnf

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9IU04C4q-1687860603477)(C:\Users\86138\AppData\Roaming\Typora\typora-user-images\image-20230627180242427.png)]

四、总结

1. mha 故障切换后配置文件有什么变化

#在 manager 节点上启动 mha
nohup masterha_manager \
--remove_dead_master_conf
#该参数代表当发生主从切换后,老的主库的 ip 将会从配置文件中移除。

2. MHA 部署过程

所有mysql都做主从复制用户授权 和 mha-manager访问数据库用户的授权
先做时间同步和mysql主从复制,并设置从为只读模式
所有节点安装 mha-node 组件,在manager节点再安装 mha-manager 组件
所有节点做 ssh 密钥对免交互登录认证
在 mha-manager 节点上准备好 "故障切换" 脚本和 manager 进程配置文件
在 master 节点使用 ifocnfig 创建 VIP地址
使用 masterha_check_ssh 和 masterha_check_repl 做好mha启动前的检查,再使用 masterha_manager 启动 mha—manager 进程
做故障切换测试 (故障切换后mha-manger进程会自动退出,配置文件自动删除旧master配置,VIP会自动漂移到新master节点,其他slave会自动更新master做主从复制)
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我的宝贝大唐

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值