MHA高可用配置及故障切换

目录

引言

一、MHA概念

1、什么是 MHA?

2、MHA 的组成

2.1 MHA Node(数据节点)

2.2 MHA Manager(管理节点)

3、MHA 的特点

4、MHA工作原理

二、搭建 MySQL MHA

实验思路

MHA架构

故障模拟

实验环境

1.Master、Slave1、Slave2 节点上安装 mysql

2.修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf

3.在 Master、Slave1、Slave2 节点上都创建两个软链接

4.配置MySQL一主两从

所有数据库节点进行 mysql 授权

​在 Master 节点查看二进制文件和同步点

在 Slave1、Slave2 节点执行同步操作

 Slave1、Slave2 节点设置为只读模式

5.配置MHA

安装epel源,并且不进行gph检查

安装MHA 软件包

 在 MHA manager 节点上安装 manager 组件

node 安装后也会在/usr/local/bin目录下生成几个脚本,需要进行检查,主要包括以下

6. 配置无密码认证

在mannager上配置到所有数据库节点的无密码认证

 7.在 manager 节点上配置 MHA

在MHA节点上复制相关脚本到/usr/local/bin目录

 复制自动切换时 VIP 管理的脚本到 /usr/local/bin 目录

 修改master_ip_failover内容(删除原有内容,直接复制)

 创建MHA软件目录并拷贝配置文件

 8.在Master服务器上手动开启vip

9.测试无密码认证,如果正常会输出successfully 

10.测试主从复制

​11.启动MHA

启动时会进行日志记录(在后台开启)

查看 MHA 状态,可以看到当前的 master

 查看 MHA 日志,可以看到当前的 master

 如果要关闭 manager 服务

三、故障模拟

1.在 manager 节点上监控观察日志记录

2.模拟master节点故障关闭服务

3. 查看manager节点动态日志

 4.故障切换备选主库的算法

四、故障修复

1.修复原master节点

2.修复主从

在现主库服务器slave1(192.168.131.30)查看二进制文件的同步点 

在原主库服务器master(92.168.131.20)执行同步操作

3.在manager节点上修改配置文件app1.cnf

4.在 manager 节点上启动 MHA

 五、总结

1、mha

核心部分:MHA组件

MHA需要配置的文件:

故障切换mba会做那些动作?

2.mha的故障问题


引言

MySQL 服务器中,单台服务器无法承载服务量就配置多台MySQL服务器,多台 MySQL 服务器或者MySQL 服务器无冗余的情况下,配置主从复制。 MySQL服务器的读和写的压力不均衡可使用 MySQL 的读写分离,MySQL的读写分离中 Msater 存在单点故障,就得用到 MHA。

一、MHA概念

1、什么是 MHA?

  • MHA(MasterHigh Availability)是一套优秀的MySQL高可用环境下故障切换和主从复制的软件。
  • MHA 的出现就是解决MySQL 单点故障的问题。
  • MySQL故障切换过程中,MHA能做到0-30秒内自动完成故障切换操作。
  • MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用。
     

2、MHA 的组成

2.1 MHA Node(数据节点)

MHA Node 运行在每台 MySQL 服务器上。

2.2 MHA Manager(管理节点)

  • MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。
  • MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave
  • 提升为新的 master, 然后将所有其他的 slave 重新指向新的 master。
  • 整个故障转移过程对应用程序完全透明。
     

3、MHA 的特点

  • 自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失
  • 使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性
  • 目前MHA支持一主多从架构,最少三台服务,即一主两从

MHA :为了解决的是故障切换、数据尽可能的保存,以及所有节点日志的一致性

4、MHA工作原理

MHA Manger管理多组主从复制。

   MHA工作原理总结如下:

  • 从宕机崩溃的master保存二进制日志事件(binlog events) ;
  • 识别含有最新的更新slave日志
  • 应用差异的中继旦志(relay log到其他的slave
  • 应用从master保存的二进制日志事件
  • 提升一个salve为新的master
  • 使其他的slave连接行的master进行复制。

二、搭建 MySQL MHA

实验思路

MHA架构

  1. 数据库安装
  2. 一主两从
  3. MHA搭建

故障模拟

  1. 主库失效
  2. 备选主库成为主库
  3. 原故障主库恢复重新加入到MHA成为从库

实验环境

主机IP地址
MHA manager192.168.131.10
Master192.168.131.20
Slave1192.168.131.30
Slave2192.168.131.40

关闭防火墙

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

1.Master、Slave1、Slave2 节点上安装 mysql

2.修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf

#Master 节点##
vim /etc/my.cnf
[mysqld]
server-id = 1
log_bin = master-bin
log-slave-updates = true

systemctl restart mysqld

##Slave1 节点##
vim /etc/my.cnf
server-id = 2 						#三台服务器的 server-id 不能一样
log_bin = master-bin  #以防单点故障的时候切换
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index

systemctl restart mysqld


###Slave2 节点##
vim /etc/my.cnf
server-id = 3 						#三台服务器的 server-id 不能一样
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index

systemctl restart mysqld

 

 注:三台mysql配置好之后,要重启服务

3.在 Master、Slave1、Slave2 节点上都创建两个软链接

将mysql命令和日志软链接到/usr/sbin,便于系统识别

ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/

 

 4.配置MySQL一主两从

所有数据库节点进行 mysql 授权

mysql -uroot -p123456
grant replication slave on *.* to 'myslave'@'192.168.131.%' identified by '123456';		#从数据库同步使用
grant all privileges on *.* to 'mha'@'192.168.131.%' identified by 'manager';		#manager 使用

grant all privileges on *.* to 'mha'@'master' identified by 'manager';				#防止从库通过主机名连接不上主库
grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';
flush privileges;

 在 Master 节点查看二进制文件和同步点

show master status;

在 Slave1、Slave2 节点执行同步操作

change master to master_host='192.168.131.20',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=1886; 

start slave;

show slave status\G;

 Slave1、Slave2 节点设置为只读模式

set global read_only=1;

5.配置MHA

    在所有服务器上安装MHA依赖环境,首先安装epel源,只有安装了源 perl才会有

        安装epel源,并且不进行gph检查

yum install epel-release --nogpgcheck -y

yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN

注:所有服务器都要安装依赖环境,包括MHA manager服务器

安装MHA 软件包

在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,因为 manager 依赖 node 组件

 在 MHA manager 节点上安装 manager 组件

 扩展:manager组件安装后在/usr/local/bin下面会生成几个工具

主要包括以下几个:

masterha_check_ssh检查 MHA 的 SSH 配置状况
masterha_check_repl检查 MySQL 复制状况
masterha_manger启动 manager的脚本
masterha_check_status检测当前 MHA 运行状态
masterha_master_monitor检测 master 是否宕机
masterha_master_switch控制故障转移(自动或者手动)
masterha_conf_host添加或删除配置的 server 信息
masterha_stop关闭manager

node 安装后也会在/usr/local/bin目录下生成几个脚本,需要进行检查,主要包括以下

save_binary_logs            #保存和复制master的二进制日志
apply_diff_relay_logs         #识别差异的中继日志时间,并将其差异的事件应用于其他的                                                      slave
filter_mysqlbinlog            #去除不必要的ROLLBACK回滚事件(MHA 已不适用这个工具)
purge_relay_logs            #清除中继日志(不会阻塞 SQL线程)

6. 配置无密码认证

在mannager上配置到所有数据库节点的无密码认证

#一路回车
ssh-keygen -t rsa
ssh-copy-id 192.168.131.10
ssh-copy-id 192.168.131.20
ssh-copy-id 192.168.131.30
ssh-copy-id 192.168.131.40

 

 7.在 manager 节点上配置 MHA

在MHA节点上复制相关脚本到/usr/local/bin目录

cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin

#复制后会有四个执行文件
ll /usr/local/bin/scripts/

#拷贝后会有四个执行文件
ll /usr/local/bin/scripts/

master_ip_failover			#自动切换时 VIP管理的脚本⭐⭐⭐
master_ip_online_change		#在线切换时 VIP的管理
power_manager				#故障发生后关闭主机的脚本
send_report					#因故障切换后发送报警的脚本

 复制自动切换时 VIP 管理的脚本到 /usr/local/bin 目录

        这里使用master_ip_failover脚本来管理 VIP 和故障切换

cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin

 修改master_ip_failover内容(删除原有内容,直接复制)

#!/usr/bin/env perl 
use strict;
use warnings FATAL => 'all';

use Getopt::Long;

my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
my $vip = '192.168.131.100';		#浮动IP
my $brdc = '192.168.131.255';	#广播地址
my $ifdev = 'ens33';		#使用的网卡为ens33
my $key = '1';			#国际序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";							#使用ifoconfig命令将其启动,同时设置浮动地址
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";							#可以使用ifconfig命令将其down掉(关闭)
my $exit_code = 0;			#正常退出(返回状态码)
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);

exit &main();

sub main {

print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";

if ( $command eq "stop" || $command eq "stopssh" ) {

my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {

my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
# A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}

sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}

#去除#开头的部分,PS:第一行添加#
% s/^#//

 创建MHA软件目录并拷贝配置文件

mkdir /etc/masterha
cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha/
vim /etc/masterha/app1.cnf

[server default]
#日志文件
manager_log=/var/log/masterha/app1/manager.log
#工作目录
manager_workdir=/var/log/masterha/app1
#二进制文件
master_binlog_dir=/home/mysql
#故障转移切换的工具
master_ip_failover_script=/usr/local/bin/master_ip_failover
#在线切换VIP工具管理
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
#以下是密码账号的管理配置
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.131.30 -s 192.168.131.40
shutdown_script=""
ssh_user=root
user=mha

[server1]
hostname=192.168.131.20
port=3306

[server2]
candidate_master=1
hostname=192.168.131.30
check_repl_delay=0
port=3306

[server3]
hostname=192.168.131.40
port=3306

#manager工作目录
manager_log=/var/log/masterha/app1/manager.log

#manager日志
manager_workdir=/var/log/masterha/app1

#master保存binlog的位置,这里的路径要于master里配置的binlog
master_binlog_dir=/home/mysql

#设置自动failover时候切换脚本,也就是上一个配置的脚本
master_ip_failover_script=/usr/local/bin/master_ip_failover

#设置手动切换时候的切换脚本
master_ip_online_change_script=/usr/local/bin/master_ip_online_change

#此处密码为之前创建监控用户的密码
password=manager

#设置监控用户
user=mha

#设置监控主库,发送ping包的事件间隔,默认为3秒,尝试三次没有回应的时候自动进性failover
ping_interval=1

#设置远端的MySQL在发生切换时binlog的保存位置
remote_workdir=/tmp

#设置复制用户的密码
repl_password=123456

#设置复制用户的账户
repl_user=myslave

#设置发生切换后发送的报警的脚本
report_script=/usr/local/send_report

#设置检查从服务器的脚本
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.226.131 -s 192.168.226.132

#设置故障发生后关闭故障主机脚本
shutdown_script=""

#设置ssh的登录用户名
ssh_user=root

[server2]
#设置候选master,如果设置了此参数,发送主从切换后,会将此库提升为主库
candidate_master=1
#关闭复制的检查,默认情况下如果一个slave落后master 100M的relay logs(中继日志)的话,MHA将不会选择该slave作为新的master,设置为0的话会忽略此规则
check_repl_delay=0

hostname=192.168.226.131
port=3306

 8.在Master服务器上手动开启vip

ifconfig ens33:1 192.168.131.100/24
ifconfig

9.测试无密码认证,如果正常会输出successfully 

masterha_check_ssh -conf=/etc/masterha/app1.cnf

 10.测试主从复制

masterha_check_repl -conf=/etc/masterha/app1.cnf

 11.启动MHA

启动时会进行日志记录(在后台开启)

nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

解释:
ohup     //选项 

masterha_manager     //开启

--conf=/etc/masterha/app1.cnf  //指定配置文件

--remove_dead_master_conf //当master服务器失效时,发生主从切换后,会把旧的master的ip从主配置文件删

--ignore_last_failover//忽略故障转移,忽略掉总是宕机不够可靠的服务器
在缺省情况下,如果MHA检测到连续发生宕机,且两次宕机间隔不足8小时的话,则不会进行Failove之所以这样限制是为了避免ping-pong效应。该参数代表忽略桑次MHA出发切换产生的文件,默认情况 MHA发生切换后会在日志记录下,也就是上面设置的日志app1.failover.complete文件,
下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件:为了方便,这里设为为--ianore_last_failover
< /dev/null> //生成的所有信息会导到nul1下或者/var/log/masterha/app1/manager.log日志文件中
2>&1&  //把2错误性的输山从定向为标准性输山,"&"开启后台运行

查看 MHA 状态,可以看到当前的 master

masterha_check_status --conf=/etc/masterha/app1.cnf

 查看 MHA 日志,可以看到当前的 master

cat /var/log/masterha/app1/manager.log | grep "current master"

 如果要关闭 manager 服务

masterha_stop --conf=/etc/masterha/app1.cnf
或者可以直接采用 kill 进程 ID 的方式关闭

三、故障模拟

1.在 manager 节点上监控观察日志记录

tail -f /var/log/masterha/app1/manager.log

2.模拟master节点故障关闭服务

正常自动切换一次后,MHA进程会退出。MHA会自动修改app1.cnf文件内容,将宕机的mysql1节点删除

3. 查看manager节点动态日志

cat /var/log/masterha/app1/manager.log

 4.故障切换备选主库的算法

  1. 一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
  2. 数据一致的情况下,按照配置文件顺序,选择备选主库。
  3. 设定有权重(candidate_master=1),按照权重强制指定备选主。

默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。

四、故障修复

1.修复原master节点

systemctl start mysqld

2.修复主从

在现主库服务器slave1(192.168.131.30)查看二进制文件的同步点 

mysql -uroot -p #进入数据库
show master status;

在原主库服务器master(92.168.131.20)执行同步操作

change master to master_host='192.168.131.30',master_user='myslave',master_password='123456',master_log_file='master-bin.000002',master_log_pos=154;
 
start slave;
show slave status\G

3.在manager节点上修改配置文件app1.cnf

        再把这个记录添加进去,因为它检测掉失效时候会自动消失

vim /etc/masterha/app1.cnf					#删除原有内容,直接复制并修改节点服务器的IP地址

[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.131.20 -s 192.168.131.40
shutdown_script=""
ssh_user=root
user=mha

[server1]
hostname=192.168.131.30
port=3306

[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.131.20
port=3306

[server3]
hostname=192.168.131.40
port=3306

4.在 manager 节点上启动 MHA

masterha_stop --conf=/etc/masterha/app1.cnf

nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

masterha_check_status --conf=/etc/masterha/app1.cnf

 五、总结

1、mha

作用:mysql的高可用+故障切换

核心部分:MHA组件

  • manager:主要功能:做MHA的启动、关闭管理和检测mysql各种健康状态
  • node:在发生故障时,尽可能地保存二进制日志,并且实现故障切换(VIP地址漂移)

MHA需要配置的文件:

  • master ip failover:命令工具,定义的是基于VIP的检测和故障转移(VIP从master—>到新的master)
  • app1.cnf:mha的主要配置文件,主要定义了mba的工作目录、日志
  • mysql二进制日志位置
  • 使用mha的登录mysql的用户、密码使用从服务器
  • 身份同步master的账号、密码(5个)

故障切换mba会做那些动作?

  • mha会多次尝试检测master的存活状态
  • mha会多次尝试尽可能的保存master的二进制日志
  • mha会根据app1.cnf中的配置部分,进行从服务器—》主服务器
  • mha最后会将master的VIP作为切换到从服务器的位置
  • mha在选择完新的master之后,会在其余的slave上执行change master操作,指向新的master,来保证mysql的集群健康性

2.mha的故障问题

  • 软链接必须得做
  • 免交互登录
  • 5个账号授权(其中3个账号是测试环境需要做的)
  • 初次运行mha的功能时,需要临时添加虚拟IP
  • 配置文件需要校验(master ip_failover 1个故障切换的脚本,app1.cnf mha的主配置文件)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值