MHA
MHA是一套优秀的MySQL高可用环境下故障切换和主从复制的软件,它解决了MySQL单点故障的问题。
在故障切换过程中,MHA能做到在30秒内自动完成故障切换
MHA能在切换过程中最大程度的保证数据的一致性,达到真正的高可用
MHA的组成
1,MHA Node节点(数据节点)
2,MHA Manager(管理节点)
MHA Manager可以单独部署在一台机器上,也可以部署在一台slave节上。
MHA Manager会定时探测集群中的master节点,当master节点出现故障时,它会自动将最新数据的slave提升为master,然后将集群中的其他slave重新指向新的master。
MHA的特点
1,自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制文件,最大程度的保证数据的完整。
2,使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制文件,MHA可以将最新的二进制日志应用与集群中其他的slave服务器上,因此可以保证所有节点的数据一致性
3,目前MHA支持一主多从架构,最少也要三台服务。
MySQL MHA部署实例
部署主从复制
MySQL MHA服务器 192.168.226.100 MHA node 组件和 manager 组件
master:192.168.226.70 mysql5.7 MHA node 组件
slave1:192.168.226.80 mysql5.7 MHA node 组件
slave2:192.168.226.90 mysql5.7 MHA node 组件
1,主服务器mysql配置
vim /etc/my.cof
server-id = 10
log-bin=master-bin #添加,主服务器开启二进制日志
binlog_format = MIXED
log-slave-updates=true #添加,允许从服务器更新二进制文件
systemctl restart mysqld
2,从服务器mysql配置
从服务器1:
vim /etc/my.cnf
server-id = 22
relay-log=relay-log-bin
relay-log-index=slave-relay-bin.index
systemctl restart mysqld
从服务器2:
vim /etc/my.cnf
server-id = 33
relay-log=relay-log-bin
relay-log-index=slave-relay-bin.index
systemctl restart mysqld
3,在 Master、Slave1、Slave2 节点上都创建两个软链接
ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
4,配置主从授权
(1)所有数据库节点进行mysql授权
mysql -uroot -p
grant replication slave on *.* to'myslave'@'192.168.226.%' identified by '123456'; #从数据库同步使用
grant all privileges on *.* to 'mha'@'192.168.226.%' identified by '123456'; #manager 使用
(2)在master节点查看二进制文件和同步点
(3)在两个从节点执行同步操作
CHANGE master to master_host='192.168.226.70',master_user='myslave',master_pster_password='123456',master_log_file='master-bin.000001',master_log_pos=1747;
start slave; #开启同步功能
(4)在节点查看数据同步结果
show slave status;
保证IO,SQL线程处于开启状态
(5)两个从库要设置为只读模式
set global read_only=1;
安装MHA软件
1,所有服务器都要安装MHA依赖环境,先安装epel源
yum install epel-release --nogpgcheck -y
yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
2,安装MHA软件包,先安装node组件,所有服务器都要安装
cd /opt
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install
3,安装完node组件后,在MHA manager节点上还要安装manager组件
cd /opt
tar zxvf mha4mysql-manager-0.57.tar.gz
cd mha4mysql-manager-0.57
perl Makefile.PL
make && make install
4,在所有服务器上配置无密码登录
(1)在 manager 节点上配置到所有数据库节点的无密码认证
ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.226.70
ssh-copy-id 192.168.226.80
ssh-copy-id 192.168.226.90
(2)在 mysql1 上配置到数据库节点 mysql2 和 mysql3 的无密码认证
ssh-keygen -t rsa
ssh-copy-id 192.168.226.80
ssh-copy-id 192.168.226.90
同理,在另外两个从服务器上配置无密码登录,仅需连接数据库之间即可
5,在manager节点上配置MHA
(1)在 manager 节点上复制相关脚本到/usr/local/bin 目录
cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
(2)复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换
cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin
(3)修改配置文件
vim /usr/local/bin/master_ip_failover
将文件内的原先数据删掉,写入
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
#############################添加内容部分#########################################
my $vip = '192.168.226.200'; #指定vip的地址
my $brdc = '192.168.226.255'; #指定vip的广播地址
my $ifdev = 'ens33'; #指定vip绑定的网卡
my $key = '1'; #指定vip绑定的虚拟网卡序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip"; #代表此变量值为ifconfig ens33:1 192.168.226.200
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down"; #代表此变量值为ifconfig ens33:1 192.168.226.200 down
my $exit_code = 0; #指定退出状态码为0
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
##################################################################################
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
## A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
使用: % s/^#// 命令查询所有以#开头的行并替换为空值
注意ip地址的填写,用于虚拟网卡IP
(4)创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器
cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha
修改此文件配置
vim /etc/masterha/app1.cnf
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=123456 #密码为先前mysql数据库内授权时设置的密码
ping_interval=1
remote_workdir=/tmp
repl_password=123456 #同样是在授权时设置的密码
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.226.80 -s 192.168.226.90
shutdown_script=""
ssh_user=root
user=mha
[server1]
hostname=192.168.226.70
port=3306
[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.226.80
port=3306
[server3]
hostname=192.168.226.90
port=3306
6,在master节点上配置虚拟ip
ifconfig ens33:1 192.168.226.200/24 #为配置manager节点时的虚拟IP
7,在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully。
masterha_check_ssh -conf=/etc/masterha/app1.cnf
8,在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。
masterha_check_repl -conf=/etc/masterha/app1.cnf
出现NOT IS OK的报错可以试试
在两个slave节点服务器执行
show slave status\G;
或是rest slave;重置一下
在一主两从,三个数据库中的/etc/my.cnf文件中
将下图中的字段注释掉
9,在manager节点上启动MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
10,查看 MHA 状态,可以看到当前的 master 是 Mysql1 节点
masterha_check_status --conf=/etc/masterha/app1.cnf
故障模拟
1,在 manager 节点上监控观察日志记录
tail -f /var/log/masterha/app1/manager.log
2,在 Master 节点 Mysql1 上停止mysql服务
systemctl stop mysqld
3,正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 mysql1 节点删除。查看 mysql2 是否接管 VIP
ifconfig
4,故障切换备选主库的算法
1.一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
2.数据一致的情况下,按照配置文件顺序,选择备选主库。
3.设定有权重(candidate_master=1),按照权重强制指定备选主。
(1)默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
(2)如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。
故障修复
1,修复mysql
systemctl restart mysqld
2,修复主从
#在现主库服务器 Mysql2 查看二进制文件和同步点
show master status;
将现主服务器作为master,与刚刚断掉的服务器连接,实现主从
change master to master_host='192.168.226.80',master_user='myslave',master_password='123456',master_log_file='master-bin.000002',master_log_pos=154;
start slave;
show slave status\G;
3.在 manager 节点上修改配置文件app1.cnf
vi /etc/masterha/app1.cnf
4,在manager节点再次启动MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
5,查看 MHA 状态,可以看到当前的 master 是 Mysql1 节点。
masterha_check_status --conf=/etc/masterha/app1.cnf
设置完后,在master节点80主机,出现故障时,备选的slave节点70主机会成为master节点。
总结:此次用到4台服务器,一台master节点,两台slave节点,一台MHA节点。先部署三台MySQL的主从复制。注意权限的给予,每一台节点都要对其他两台节点给予权限。再在所有节点上搭建node组件,而manage组件则需要在MHA服务器上单独部署。在对MHA中的App1.cnf文件和master.ip_failover文件进行配置。app1.cnf文件主要是用于对master节点的管理,通过设置来确定第一次的主节点。以及主节点故障后顶替的节点。master.ip_failover文件则是对VIP的管理和故障的切换。配置完文件后,需要在主节点上配置一个vip,通过VIP的漂移来确认节点的主从。实现单点故障时的切换。