MHA高可用集群

在这里插入图片描述

MHA存在的意义

为了以防主服务器单点故障暴毙
在这里插入图片描述

MHA的组件

MHA Manager(管理节点):可以借助于node组件实现健康检查和故障切换
MHA Node(数据节点):1、定时汇报给主manager节点 mysql服务的状态
2、监控本地mysql服务功能

MHA的概述

1、一套优秀的Mysql高可用环境下故障切换和主从修复的软件
2、Mysql故障过程中,MHA能做到0-30秒内自动完成故障切换

在这里插入图片描述

MHA的特点

1、自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失。
2、使用半同步复制,可以大大降低数据丢失的风险
3、目前MHA支持一主多从架构, 最少三台服务,即一主两从
使用MySQL5.5的半同步复制,可以大大降低数据丢失的风险。MHA可以与半同步复制结合起来,如果只有一个slave已经收到了最新的二进制日志,MHA可以将那个slave最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性,有时候可故意设置从节点慢于主节点,当发生意外删除数据库倒是数据丢失时可从从节点二进制日志中恢复。

故障切换本质是vip飘移
自动(使用脚本触发)

在这里插入图片描述
提升从服务器为master服务器的机制
1、预选:当主挂掉了,先去吃bin-log和relay-log相差100M的日志
2、优选:择优,master 1000M多个slave 980 、900 、920 优先选择980

搭建MHA

MHA是在mysql主从复制的基础上建立的
MHA-manager 用来调控和调度
一主两从

1、同步时间、关闭防火墙

vim /etc/resolv.conf
nameserver 114.114.114.114


ntpdate ntp.aliyun.com
systemctl stop firewalld
systemctl disable firewalld
setenforce 0

2、定义节点服务器名称

hostnamectl set-hostname master
hostnamectl set-hostname slave1
hostnamectl set-hostname slave2
hostnamectl set-hostname manager

3、安装好mysql数据库

在这里插入图片描述

4、修改三台mysql服务器的主配置文件

master

vim /etc/my.cnf
[mysqld]
server-id = 11
log-bin = master-bin
log-slave-updates = true

systemctl restart mysqld
ln -s /usr/local/mysqld/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/

在这里插入图片描述
在这里插入图片描述
slave1和slave2

vim /etc/my.cnf
server-id = 22
#slave2就为33
log-bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index

systemctl restart mysqld
ln -s /usr/local/mysqld/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/

在这里插入图片描述
在这里插入图片描述

5、配置mysql(一主两从)(所有mysql)

mysql -e "grant replication slave on *.* to 'myslave'@'192.168.59.%' identified by '123456';"
mysql -e "grant all privileges on *.* to 'mha'@'192.168.59.%' identified by 'manager';"
mysql -e "grant all privileges on *.* to 'mha'@'mysql1' identified by 'manager';"
mysql -e "grant all privileges on *.* to 'mha'@'mysql2' identified by 'manager';"
mysql -e "grant all privileges on *.* to 'mha'@'mysql3' identified by 'manager';"

在这里插入图片描述
为什么做下面三个呢,因为是以mha主机用户进入的,需要提权

在master节点查看二进制文件和偏移量

在这里插入图片描述

在slave1、slave2节点执行同步操作

change master to master_host='192.168.59.129',master_user='myslave',master_password='123456',master_log_file='master-bin.000003',master_log_pos=1890;

mysql -e "start slave;" 
show slave status\G


在这里插入图片描述

slave1和slave2设置成只读模式(对root用户无效,对普通用户有效)

set global read_only=1;

在这里插入图片描述
只读功能验证

mysql -umyslave -p123456 -h 192.168.59.129 -P 3306

mysql> create database info;

在这里插入图片描述

6、安装MHA软件

在所有服务器上安装MHA以来的环境,首先安装epel源,只有安装了源perl才会有
所有服务器上都安装node组件

yum install epel-release --nogpgcheck -y               #安装epel源,并且不进行gpg检查


yum install -y perl-DBD-MySQL \
perl-Config-Tiny \                     
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN

把软件包mha4mysql-node-0.57.tar.gz放入/opt目录下

cd /opt
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install

每个操作系统版本不一样,centos7.4必须是node 0.57版本
安装好node之后 在manager服务器上安装manager组件,manager依赖于node组件

在MHA manager服务上安装manager组件

cd /opt
把软件包mha4mysql-manager-0.57.tar.gz载入/opt目录下

tar zxvf mha4mysql-manager-0.57.tar.gz
cd mha4mysql-manager-0.57
perl Makefile.PL
make && make install

manager组件安装后会在/usr/local/bin下面生成几个工具,如下:
在这里插入图片描述

工具名作用
masterha_stop关闭manager
masterha_conf_host添加或删除配置的 server 信息
masterha_master_switch控制故障转移(自动或者手动)
masterha_master_monitor检测 master 是否宕机
masterha_check_status检测当前 MHA 运行状态
masterha_manger启动 manager的脚本
masterha_check_repl检查 MySQL 复制状况
masterha_check_ssh检查 MHA 的 SSH 配置状况(检查免交互)

node组件安装后,会产生下面几个脚本(通常由manager的脚本触发,无需人工触发)
在这里插入图片描述

脚本作用
filter_mysqlbinlog去除不必要的 ROLLBACK 事件
apply_diff_relay_logs识别差异的中继日志事件并将其差异的事件应用于其他的 slave
save_binary_logs保存和复制 master 的二进制日志
purge_relay_logs清除中继日志(不会阻塞SQL线程)

7、在所有服务器上配置无密码认证

在manager(192.168.59.131)节点上配置所有数据库无密码认证

ssh-keygen -t rsa
ssh-copy-id 192.168.59.128
ssh-copy-id 192.168.59.129
ssh-copy-id 192.168.59.130

在master(192.168.59.129)上配置数据库节点slave1和slave2的无密码认证

ssh-keygen -t rsa
ssh-copy-id 192.168.59.128
ssh-copy-id 192.168.59.130

在slave1(192.168.59.128)上配置数据库节点master和slave2的无密码认证

ssh-keygen -t rsa
ssh-copy-id 192.168.59.129
ssh-copy-id 192.168.59.130

在slave2(192.168.59.130)上配置数据库节点master和slave1的无密码认证

ssh-keygen -t rsa
ssh-copy-id 192.168.59.128
ssh-copy-id 192.168.59.129

在manager节点上配置MHA

cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin

在这里插入图片描述

脚本作用
send_report因故障切换后发送报警的脚本
power_manager故障发生后关闭主机的脚本
master_ip_online_change在线切换时 vip 的管理
master_ip_failover自动切换时 VIP 管理的脚本

复制上述的自动切换时 VIP 管理的脚本master_ip_failover到/usr/local/bin 目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换

cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin

vim /usr/local/bin/master_ip_failover                 #修改内容(删除原有内容,复制以下 vip 相关参数)
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';

use Getopt::Long;

my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);

my $vip = '192.168.59.100';								#指定vip的地址
my $brdc = '192.168.59.255';								#指定vip的广播地址
my $ifdev = 'ens33';										#指定vip绑定的网卡
my $key = '1';												#指定vip绑定的虚拟网卡序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";		#代表此变量值为ifconfig ens33:1 192.168.80.200
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";		#代表此变量值为ifconfig ens33:1 192.168.80.200 down
my $exit_code = 0;											#指定退出状态码为0
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";

GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);

exit &main();

sub main {

print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";

if ( $command eq "stop" || $command eq "stopssh" ) {

my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {

my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
## A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}

sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}

创建MHA软件目录并复制文件,使用app1.cnf配置文件来管理MySQL节点服务器,配置文件一般放在/etc/目录里

mkdir /etc/masterha
cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha

vim /etc/masterha/app1.cnf
[server default]
#日志文件
manager_log=/var/log/masterha/app1/manager.log
#工作目录
manager_workdir=/var/log/masterha/app1
#二进制文件位置(mysql数据库中master的data保存位置)
master_binlog_dir=/usr/local/mysql/data
#故障转移切换的工具
master_ip_failover_script=/usr/local/bin/master_ip_failover
#在线切换vip工具管理
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
#此处密码为之前创建监控用户的密码
password=manager 
ping_interval=1                #设置监控主库  ,发送ping包的事件间隔,默认3秒,尝试三次没有回应自动切换
remote_workdir=/tmp           #设置远端的MySQL在发生切换时binlog的保存位置
repl_password=123456          #设置复制用户的密码
repl_user=myslave               #设置复制用户的账户
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.59.128 -s 192.168.59.130           #检测脚本指向两个从节点   #设置检查从服务器的脚本
shutdown_script=""               #设置故障发生后关闭故障主机脚本
ssh_user=root                  #设置ssh的登录用户名
#设置监控用户
user=mha

[server1]
hostname=192.168.59.129
port=3306

[server2]
candidate_master=1              #设置候选master,如果设置了此参数,发送主从切换后,会将此库提升为主库
check_repl_delay=0              #关闭复制的检查,默认情况下如果一个slave落后master 100M的relay logs(中继日志)的话,MHA将不会选择该slave作为新的master,设置为0的话会忽略此规则
hostname=192.168.59.128
port=3306

[server3]
hostname=192.168.59.130
port=3306

在这里插入图片描述

在master服务器上开启vip

ifconfig ens33:1 192.168.59.100/24

在这里插入图片描述

在manager上测试ssh无密码认证

masterha_check_ssh -conf=/etc/masterha/app1.cnf

在这里插入图片描述
在manager 节点上测试MySQL主从连接情况,最后出现MySQL Replication Health is OK 字样说明正常

masterha_check_repl -conf=/etc/masterha/app1.cnf

在这里插入图片描述

在manager节点上启动MHA

nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &                         
#- -remove_dead_master_conf	   该参数代表当发生主从切换后,老的主库的 ip 将会从配置文件中移除   
#  - -manger_log           日志存放位置。
-ignore_last_failover:在缺省情况下,如果 MHA 检测到连续发生宕机,且两次宕机间隔不足 8 小时的话,则不会进行 Failover, 之所以这样限制是为了避免 ping-pong 效应。该参数代表忽略上次 MHA 触发切换产生的文件,默认情况下,MHA 发生切换后会在日志记目录,也就是上面设置的日志app1.failover.complete文件,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件,为了方便,这里设置为–ignore_last_failover。

** 查看MHA状态,可以看到master的mysql1节点**

masterha_check_status --conf=/etc/masterha/app1.cnf

在这里插入图片描述

查看MHA日志,可以看到master的ip

cat /var/log/masterha/app1/manager.log | grep "current master"

在这里插入图片描述
查看主服务器的vip是否存在,这个vip不会因为MHA停止消失,会因为master宕机 转移
在这里插入图片描述
如果要关闭manager服务 ,可以用以下命令,或者直接kill进程

masterha_stop --conf=/etc/masterha/app1.cnf

故障模拟实验

到manager节点上观察日志记录

tail -f /var/log/masterha/app1/manager.log

在这里插入图片描述
在master服务器上停止mysql 看他会不会转移
在这里插入图片描述
看他转移了 ,他消失了,他切换了 正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 mysql1 节点删除。

查看主备slave1是否接管vip
在这里插入图片描述

接管了

再看看manager日志

在这里插入图片描述

故障修复

修复旧的master
启动myql

systemctl restart mysql

他现在只能以从的身份加入
到 master(旧的slave1)上查看二进制日志和同步点

show master status;

在这里插入图片描述

在master上执行从的复制连接

change master to master_host='192.168.59.128',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=1593;
start slave;
show slave status\G

在这里插入图片描述
再去manager节点上修改配置文件app1.cnf

在这里插入图片描述
在manager节点上启动MHA

masterha_stop --conf=/etc/masterha/app1.cnf

nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

masterha_check_status --conf=/etc/masterha/app1.cnf

在这里插入图片描述
成功!!!

整个MHA我出现最多的问题就是主从服务器上的软链接,明明之前做过 ,然后全没有了 ,因为没有了 ,MHA上老是出现rc 127:0! 的错误

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值