MySQL MHA


前言

MHA目前在MySQL高可用方面是一个相对成熟的解决方案
但是在搭建的过程中容易报错,且MHA的构建综合了主从复制,所以MHA安装时需要严格执行每一个部署


一、MHA概述

1、MHA简介

  • MHA(Master High Availability)目前在MySQL高可用方面是一个相对成熟的解决方案,MHA是由日本人开发,是一套优秀的MySQL故障切换和主从复制的高可用软件
  • 在MySQL故障切换的过程中,MHA能做到0~30秒之内自动完成数据库的故障切换操作,并且在进行故障切换的过程中,MHA能够最大程度上保证数据库的一致性,以达到真正意义上的高可用
  • MHA由perl语言编写,该工具仅仅使用于MySQLReplication环境,目的在于维持Master主库的高可用性
  • MHA是基于标准的MySQL主从复制(异步/半同步)
  • MHA由两部分组成管理节点(MHA manager)和数据节点(MHA Node)两部分组成
  • MHA manager 可以单独部署在一台服务器上,可以部署在一台slave上面
    了解:主从复制架构:主从复制(一主多从);MHA架构(多主多从);MMM架构(3主多从)

2、MHA特点

自动故障切换过程中,MHA总会试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失

但这并不总是可行,例如如果主服务器硬件故障或者无法通过ssh访问,MHA则无法保存二进制日志,只能进行故障转移而丢失了最新的数据

使用MySQL5.5的半同步复制,可以大大降低数据丢失的风险。MHA可以与半同步复制结合起来,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性,有时候可故意设置从节点慢于主节点,当发生意外删除数据库倒是数据丢失时可从从节点二进制日志中恢复。

MHA :为了解决的了是故障切换、数据尽可能的保存,以及所有节点日志的一致性

二、MHA实验

1、 实验环境

服务器 CentOS7.4(64 位)
MHA-manager :192.168.32.19 管理节点,安装 manager 组件与node组件

只要用来调控与调度
MySQL服务器
master 192.168.32.11 安装 node 组件
slave1 192.168.226.12 安装 node 组件
slave2 192.168.226.13 安装 node 组件

#定义节点服务器名称
hostnamectl set-hostname manager
su
在这里插入图片描述

hostnamectl set-hostname master
su
在这里插入图片描述
hostnamectl set-hostname slave1
su
在这里插入图片描述
hostnamectl set-hostname slave2
su
在这里插入图片描述
#安装编译依赖环境(三台MySQL服务器)
yum -y install ncurses-devel gcc-c++ perl-Module-Install
在这里插入图片描述
#修改master的主配置文件
#开启二进制日志log_bin,允许从服务器同步log-slave-updates 22行之后
cat /etc/my.cnf
[mysqld]
server-id = 1
log_bin = master-bin
log-slave-updates = true
在这里插入图片描述

#配置从服务器
#在/etc/my.cnf 中修改或者增加下面内容
#开启中继日志,创建索引,同步主服务器
#slave 1
vim /etc/my.cnf
server-id = 2
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-realy-bin.index

systemctl restart mysqld
在这里插入图片描述

#slave 2
vim /etc/my.cnf
server-id = 3
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-realy-bin.index

systemctl restart mysqld
在这里插入图片描述

#master、slave1、slave2分别做两个软链接
#第一个是mysql命令
#第二个mysqlbinlog是节点恢复
ln -s /usr/local/mysql/bin/mysql /usr/sbin
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
#配置MySQL 一主两从

#在所有数据库节点上授权两个用户,一个是从库同步使用,另一个是manager使用
grant replication slave on *.* to 'myslave'@'192.168.32.%' identified by '123456'; 
grant all privileges on *.* to 'mha'@'192.168.32.%' identified by 'manager';

在这里插入图片描述

#下面三条授权理论上不用添加,但是实验环境通过MHA检查MySQL主从报错,
报两个从库通过主机名连接不上主库,所以所有数据库都需要添加以下授权
通过mha检查的时候,是通过主机名的形式进行监控,这种情况会容易报错
grant all privileges on *.* to 'mha'@'master' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';

在这里插入图片描述

#所有从库开启只读功能(不会对超级管理员super生效,普通用户)
set global read_only=1;

在这里插入图片描述
flush privileges;
在这里插入图片描述

#在master上查看二进制文件和同步点
show master status;
在这里插入图片描述

#在两台节点服务器进行同步
change master to master_host=‘192.168.32.11’,master_user=‘myslave’,master_password=‘123456’,master_log_file=‘master-bin.000001’,master_log_pos=1745;
在这里插入图片描述

start slave;
show slave status\G;
在这里插入图片描述
在这里插入图片描述

PS:只读功能验证
在slave1服务器上,mysql -umyslave -p123456 -h 192.168.32.11 -P 3306

mysql> create database info;
ERROR 1290 (HY000): The MySQL server is running with the --read-only option so it cannot execute this statement
在这里插入图片描述

配置MHA

#在所有服务器上安装MHA依赖环境,首先安装epel源,只有安装了源 perl才会有
#安装epel源,并且不进行gph检查
yum install epel-release --nogpgcheck -y
在这里插入图片描述

#perl针对于mysql数据库
#从配置文件中提拿其中的值
#log-日志
#多线程管理
#扩展工具CBuilder MakeMaker
#cpan perl中的数据库
yum install -y perl-DBD-MySQL
perl-Config-Tiny
perl-Log-Dispatch
perl-Parallel-ForkManager
perl-ExtUtils-CBuilder
perl-ExtUtils-MakeMaker
perl-CPAN
在这里插入图片描述

#MHA 软件包对于每个操作系统版本不一样,这里Centos7.4必须选择0.57版本
#在所有服务器上必须先安装node组件,最后在MHA-manager节点上安装manager组件
因为manager依赖node组件,

#同步阿里云时间服务器
ntpdate ntp.aliyun.com
在这里插入图片描述
tar zxvf /opt/mha4mysql-node-0.57.tar.gz -C /root
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install
在这里插入图片描述
在这里插入图片描述

#在MHA节点上安装manager组件(必须先安装node才能安装manager组件)

tar zxvf /opt/mha4mysql-manager-0.57.tar.gz -C /root
cd mha4mysql-manager-0.57
perl Makefile.PL
make && make install
在这里插入图片描述
在这里插入图片描述

#manager 安装后在/usr/local/bin目录下会生成几个工具,主要包括以下:

masterha-check_ssh 检查MHA的SSH配置状况(免交互)
masterha_check_repl 检查MySQL复制状况
masterha_manager 启动manager的脚本
masterha_check_status 检查当前MHA运行状态
masterha_master_monitor 检查master是否宕机
masterha_master_switch 控制故障转移(自动或者手动)
masterha_conf_host 添加或删除配置的server信息
masterha_stop 关闭manager

#node 安装后也会在/usr/local/bin目录下生成几个脚本,需要进行检查,主要包括以下
save_binary_logs #保存和复制master的二进制日志
apply_diff_relay_logs #识别差异的中继日志时间,并将其差异的事件应用于其他的slave
filter_mysqlbinlog #去除不必要的ROLLBACK回滚事件(MHA 已不适用这个工具)
purge_relay_logs #清除中继日志(不会阻塞 SQL线程)
在这里插入图片描述

配置无密码认证

#一、在mannager上配置到所有数据库节点的无密码认证
#一路回车
ssh-keygen -t rsa
ssh-copy-id 192.168.32.11
ssh-copy-id 192.168.32.12
ssh-copy-id 192.168.32.13
ssh-copy-id 192.168.32.19
在这里插入图片描述

#二、在master上配置到slave1和salve2的无密码认证
ssh-keygen -t rsa
ssh-copy-id 192.168.32.11
ssh-copy-id 192.168.32.12
ssh-copy-id 192.168.32.13
ssh-copy-id 192.168.32.19

在这里插入图片描述

#三、在slave1上配置到master和salve2的无密码认证
ssh-keygen -t rsa
ssh-copy-id 192.168.32.11
ssh-copy-id 192.168.32.12
ssh-copy-id 192.168.32.13
ssh-copy-id 192.168.32.19
在这里插入图片描述

#四、在slave2上配置到master和salve1的无密码认证
ssh-keygen -t rsa
ssh-copy-id 192.168.32.11
ssh-copy-id 192.168.32.12
ssh-copy-id 192.168.32.13
ssh-copy-id 192.168.32.19
在这里插入图片描述
#配置MHA
1、在MHA节点上复制相关脚本到/usr/local/bin目录
cp -ra /root/mha4mysql-manager-0.57/samples/scripts/ /usr/local/bin

#-a:此选项通常在复制目录时使用,它保留链接、文件属性,并复制目录下的所有内容
#-r: 递归

#拷贝后会有四个执行文件
ll /usr/local/bin/scripts/

master_ip_failover #自动切换时 VIP管理的脚本
master_ip_online_change #在线切换时 VIP的管理
power_manager #故障发生后关闭主机的脚本
send_report #因故障切换后发送报警的脚本

#复制上述的master_ip_failover 到/usr/local/bin目录 这里使用脚本管理VIP
在这里插入图片描述

cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin
在这里插入图片描述

#修改master_ip_failover内容(删除原有内容,直接复制)

#!/usr/bin/env perl 
use strict;
use warnings FATAL => 'all';

use Getopt::Long;

my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
my $vip = '192.168.32.100';		#浮动IP
my $brdc = '192.168.32.255';	#广播地址
my $ifdev = 'ens33';		#使用的网卡为ens33
my $key = '1';			#国际序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";							#使用ifoconfig命令将其启动,同时设置浮动地址
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";							#可以使用ifconfig命令将其down掉(关闭)
my $exit_code = 0;			#正常退出(返回状态码)
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);

exit &main();

sub main {

print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";

if ( $command eq "stop" || $command eq "stopssh" ) {

my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {

my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
# A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}

sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}

#去除#开头的部分,PS:第一行添加#
% s/^#//
在这里插入图片描述

#创建MHA软件目录并拷贝配置文件
mkdir /etc/masterha
cp /root/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha/
vim /etc/masterha/app1.cnf

[server default]
#日志文件
manager_log=/var/log/masterha/app1/manager.log
#工作目录
manager_workdir=/var/log/masterha/app1
#二进制文件
master_binlog_dir=/home/mysql
#故障转移切换的工具
master_ip_failover_script=/usr/local/bin/master_ip_failover
#在线切换VIP工具管理
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
#以下是密码账号的管理配置
password=manager
ping_interval=1
remote_workdir=/tmp::w
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.32.12 -s 192.168.32.13
shutdown_script=“”
ssh_user=root
user=mha

[server1]
hostname=192.168.32.11
port=3306

[server2]
candidate_master=1
hostname=192.168.32.12
check_repl_delay=0
port=3306

[server3]
hostname=192.168.32.13
port=3306

配置文件解析

#manager工作目录
manager_log=/var/log/masterha/app1/manager.log

#manager日志
manager_workdir=/var/log/masterha/app1

#master保存binlog的位置,这里的路径要于master里配置的binlog
master_binlog_dir=/home/mysql

#设置自动failover时候切换脚本,也就是上一个配置的脚本
master_ip_failover_script=/usr/local/bin/master_ip_failover

#设置手动切换时候的切换脚本
master_ip_online_change_script=/usr/local/bin/master_ip_online_change

#此处密码为之前创建监控用户的密码
password=manager

#设置监控用户
user=mha

#设置监控主库,发送ping包的事件间隔,默认为3秒,尝试三次没有回应的时候自动进性failover
ping_interval=1

#设置远端的MySQL在发生切换时binlog的保存位置
remote_workdir=/tmp

#设置复制用户的密码
repl_password=123456

#设置复制用户的账户
repl_user=myslave

#设置发生切换后发送的报警的脚本
report_script=/usr/local/send_report

#设置检查从服务器的脚本
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.32.12 -s 192.168.32.13

#设置故障发生后关闭故障主机脚本
shutdown_script=“”

#设置ssh的登录用户名
ssh_user=root

[server2]
#设置候选master,如果设置了此参数,发送主从切换后,会将此库提升为主库
candidate_master=1
#关闭复制的检查,默认情况下如果一个slave落后master 100M的relay logs(中继日志)的话,MHA将不会选择该slave作为新的master,设置为0的话会忽略此规则
check_repl_delay=0

hostname=192.168.32.12
port=3306
在这里插入图片描述
ifconfig ens33:1 192.168.32.100/24
ifconfig
在这里插入图片描述

#测试无密码认证,如果正常会输出successfully
masterha_check_ssh -conf=/etc/masterha/app1.cnf
在这里插入图片描述
#测试主从复制
masterha_check_repl -conf=/etc/masterha/app1.cnf
在这里插入图片描述

启动MHA

#启动时会进行日志记录(在后台开启)
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

解释

ohup //选项

masterha_manager //开启

–conf=/etc/masterha/app1.cnf //指定配置文件

–remove_dead_master_conf //当master服务器失效时,发生主从切换后,会把旧的master的ip从主配置文件删

–ignore_last_failover//忽略故障转移,忽略掉总是宕机不够可靠的服务器
在缺省情况下,如果MHA检测到连续发生宕机,且两次宕机间隔不足8小时的话,则不会进行Failove之所以这样限制是为了避免ping-pong效应。该参数代表忽略桑次MHA出发切换产生的文件,默认情况 MHA发生切换后会在日志记录下,也就是上面设置的日志app1.failover.complete文件,
下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件:为了方便,这里设为为–ianore_last_failover
< /dev/null> //生成的所有信息会导到nul1下或者/var/log/masterha/app1/manager.log日志文件中
2>&1& //把2错误性的输山从定向为标准性输出,"&"开启后台运行
在这里插入图片描述
#查看到当前的master节点是谁
masterha_check_status --conf=/etc/masterha/app1.cnf
在这里插入图片描述

#查看当前日志信息
cat /var/log/masterha/app1/manager.log
在这里插入图片描述

#查看MySQL的VIP地址 192.168.32.100是否存在,这个VIP地址不会因为manager节点停止MHA服务而消失
ifconfig

验证

#manager服务器上启用监控观察日志
tail -f /var/log/masterha/app1/manager.log
在这里插入图片描述

模拟故障

在master关闭mysqld服务看到vip飘到slave1上了
在这里插入图片描述
在这里插入图片描述
看到slave2称为新的master
在这里插入图片描述

模拟故障:
在主库pkill mysql
可以看到从库的状态,其中之一肯定由切换为主库的
切换备选主库的算法
1一般判断从库是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,称为备选主
2、数据一致的情况下,按照配置文件顺序选择备选主库
3、设定有权重(candidate_master=1),按照权重强制指定备选主
1)默认情况下,如果一个slave落后master 100M的relay logs(中继日志)的话,即使有权重,也会失效
2)如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主

故障修复步骤:

修复主从(在数据库中输入)
主备服务器:show master status;
在这里插入图片描述

修复的master: 另外一台slave2也要做
stop slave;
change master to master_host=‘192.168.32.12’,master_user=‘myslave’,master_password=‘123456’,master_log_file=‘master-bin.000004’,master_log_pos=733;
start slave;

set global read_only=1;

flush privileges;
在这里插入图片描述
#3、修改配置文件因为它检测到失效时候会自动消失
在这里插入图片描述
在这里插入图片描述
#4、启动manager(在manager那台机器上)
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
masterha_check_status --conf=/etc/masterha/app1.cnf

#查看到当前的master节点是谁
masterha_check_status --conf=/etc/masterha/app1.cnf

#解决中英字不兼容报错的问题
dos2unix /usr/local/bin/master_ip_failover

在这里插入图片描述
在这里插入图片描述

MHA 原理

MHA中有三个部分

1、核心是主从
2、manager管理节点:管理数据库集群信息、定义、触发故障切换
3、node 数据节点:主要负责保存日志、比较中继日志、选择主备

简要的功能流程

mha 会通过node监控mysql数据库服务的节点信息,定期监测和返回master角色的健康状态(健康检查)
mha 通过将VIP定义在master节点上,并且数据库的访问也从此VIP进入,当master异常时,mha会进行“故障切换”,就是VIP漂移+二进制日志保存,漂移到主备节点后,通过脚本命令来控制mysql服务器角色的变更,例如将主-备服务器变更位主服务器,将其他的从服务指向新的主服务器,来继续执行

工作流程

首先主体是mysql的主从复制,mha服务核心为manager控制节点和node数据节点,mha会监控mysql的master和集群主从复制状态,如果master故障了,mha会触发“抢救保存”日志和进行VIP故障切换,切换到主-备节点上,并且调整mysql集群主-从之间指向关系,让mysql可以正常运行。

MHA 搭建过程

  1. 准备主从复制集群(至少是1主3从)
  2. 做软连接(mysql和mysqlbinlog)用于mha使用
  3. 在数据库内部进行授权(授权的用户角色包含:①从服务器角色-用户主从复制 授权mha角色)
  4. 安装node数据节点和manager控制节点(node跑在mysql数据库服务器上)
  5. 定义VIP、VIP故障漂移脚本master_ip_failover
  6. 定义mha主配置:/etc/masterha/app1.conf
    ①mysql工作位置,例如二进制日志
    ②定义从服务器IP位置
    ③定义数据库集群每个节点的IP、端口,也可以手动指定主-备服务器是哪台cadidate_master=1
    不做日志中时间的检查:check_rep1_delay=0
  7. 检测以下是否ok,然后启动mha

mha故障

master挂掉了 mha故障迁移/切换 -> VIP漂移 -> mha的manager服务是会直接停掉的,所以mha可以做一次性的故障切换,但是无法复用,想要复用,需要人为干预。

常见架构

主从、读写、mha(基础架构)

  • mmm(容灾ha)
  • canal + zk + mysql集群 + kafka 尽可能保障数据一致性
  • 负载均衡架构(master)多master主从 + haproxy
  • 级联复制架构(偏于功能性)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值