Mysql群集MHA高可用配置

目录

前瞻

什么是 MHA

MHA 的组成

MHA Node(数据节点)

MHA Manager(管理节点)

MHA 原理

MHA 的特点

 搭建Mysql MHA高可用集群

实验流程

实验准备

实验要求 

实验步骤 

关闭防火墙,安全机制

 修改 Master、Slave1、Slave2 节点的主机名

 修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf 

 在 Master、Slave1、Slave2 节点上都创建两个软链接

 配置 mysql 一主两从

 安装 MHA 软件

 在所有服务器上配置无密码认证

在 manager 节点上配置 MHA

第一次配置需要在 Master 节点上手动开启虚拟IP

 在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully,如下所示。

在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。

 在 manager 节点上启动 MHA

查看 MHA 状态,可以看到当前的 master 是 mysql1 节点。

 查看 MHA 日志,也以看到当前的 master 是 192.168.80.10,如下所示。

故障模拟 

在 Master 节点 mysql1 上停止mysql服务

跟踪mha服务器的日志(发现切换成功) 

查看mha的配置文件 

查看mysql2 

查看mysql3 

故障数据库恢复使用 

在 manager 节点上修改配置文件(再把[server1]这个记录添加进去,因为它检测掉失效时候会自动消失)

 在 manager 节点上启动 MHA

去到mysql2关闭mysql服务, 去到mysql1重新开启mysql服务,并查看状态


前瞻

什么是 MHA

MHA(MasterHigh Availability)是一套优秀的MySQL高可用环境下故障切换和主从复制的软件。
MHA 的出现就是解决MySQL 单点的问题。
MySQL故障切换过程中,MHA能做到0-30秒内自动完成故障切换操作。
MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用。

MHA 的组成

MHA Node(数据节点)

MHA Node 运行在每台 MySQL 服务器上。

MHA Manager(管理节点)

MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。
MHA Manager 会定时探测集群中的 master 节点。当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master, 然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。

MHA 原理

MHA Node 运行在每台 MySOL 服务器上,MHA Manager 会定时探测集群中的 master 节点,当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master,然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对客户端应用程序完全透明。

MHA 的特点

  • 自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失
  • 使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性
  • 目前MHA支持一主多从架构,最少三台服务,即一主两从
     

 搭建Mysql MHA高可用集群

实验流程

  1. 所有 MySQL 节点都做主从复制授权,和 mha manager 访问数据库的授权
  2. 做时间同步和 MySQL 的主从复制,并设置所有的从节点为只读模式
  3. 所有节点安装 mha node 组件,在 manager 节点上还要再安装 mha manager 组件
  4. 所有节点做 ssh 密钥对面交互登录认证
  5. 在 mha manager 节点上准备好 故障切换脚本 和 mha 配置文件
  6. 在 master 节点上使用 ifconfig 创建 VIP
  7. 使用 masterha_check_ssh 和 masterha_check_repl 做 mha 启动前检查,再使用 masterha_manager 启动 mha 进程
  8. 做故障切换测试(VIP会漂移到新master节点上,其它的从节点会自动指向新master做主从复制,故障切换后mha进程会自动退出,配置文件自动删除旧master的配置信息)

实验准备

实验准备(MHA管理一主多从架构,需要都关闭防火墙和selinux,数据库安装好mysql)

Master 数据库:192.168.75.10

Slave1 数据库:192.168.75.20

Slave2 数据库:192.168.75.30

MHA 服务器:192.168.75.40

实验要求 

MHA manager 节点服务器:CentOS7.4(64 位) manager/192.168.80.13 ,安装MHA node 和 manager 组件
Master 节点服务器:CentOS7.4(64 位) mysql1/192.168.80.10 ,安装mysql5.7、MHA node 组件
Slave1 节点服务器:CentOS7.4(64 位) mysql2/192.168.80.11 ,安装mysql5.7、MHA node 组件
Slave2 节点服务器:CentOS7.4(64 位) mysql3/192.168.80.12 ,安装mysql5.7、MHA node 组件

实验步骤 

关闭防火墙,安全机制

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

 修改 Master、Slave1、Slave2 节点的主机名

hostnamectl set-hostname mysql1
hostnamectl set-hostname mysql2
hostnamectl set-hostname mysql3

 修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf 

##Master 节点##

vim /etc/my.cnf
[mysqld]
server-id = 1
log_bin = mysql-bin
binlog_format = mixed
log-slave-updates = true
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index

systemctl restart mysqld

 

 

 ##Slave1、Slave2 节点##

vim /etc/my.cnf
server-id = 2 						#三台服务器的 server-id 不能一样
log_bin = mysql-bin
binlog_format = mixed
log-slave-updates = true
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index

systemctl restart mysqld

 

 

 在 Master、Slave1、Slave2 节点上都创建两个软链接

ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/

 配置 mysql 一主两从

在所有数据库节点进行 mysql 授权

mysql -uroot -p
grant replication slave on *.* to 'myslave'@'192.168.75.%' identified by '666';		#从数据库同步使用
grant all privileges on *.* to 'mha'@'192.168.75.%' identified by '666';		#manager 使用

grant all privileges on *.* to 'mha'@'mysql1' identified by '666';				#防止从库通过主机名连接不上主库
grant all privileges on *.* to 'mha'@'mysql2' identified by '666';
grant all privileges on *.* to 'mha'@'mysql3' identified by '666';
flush privileges;

 在 Master 节点查看二进制文件和同步点

show master status;

 在 Slave1、Slave2 节点执行同步操作

change master to master_host='192.168.75.10',master_user='myslave',master_password='666',master_log_file='mysql-bin.000001',master_log_pos=1745; 

start slave;

在 Slave1、Slave2 节点查看数据同步结果 

show slave status\G		
//确保 IO 和 SQL 线程都是 Yes,代表同步正常。
Slave_IO_Running: Yes
Slave_SQL_Running: Yes

 

 两个从库必须设置为只读模式

set global read_only=1;

 

 插入数据测试数据库同步

在主服务器创建库表

 去到从服务器查看

 安装 MHA 软件

所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源

yum install epel-release --nogpgcheck -y

yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN

安装 MHA 软件包,先在所有服务器上必须先安装 node 组件
对于每个操作系统版本不一样,这里 CentOS7.4 必须选择 0.57 版本。
在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,因为 manager 依赖 node 组件。

cd /opt
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install

在 MHA manager 节点上安装 manager 组件

cd /opt
tar zxvf mha4mysql-manager-0.57.tar.gz
cd mha4mysql-manager-0.57
perl Makefile.PL
make && make install

#manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个:
masterha_check_ssh 检查 MHA 的 SSH 配置状况
masterha_check_repl 检查 MySQL 复制状况
masterha_manger 启动 manager的脚本
masterha_check_status 检测当前 MHA 运行状态
masterha_master_monitor 检测 master 是否宕机
masterha_master_switch 控制故障转移(自动或者手动)
masterha_conf_host 添加或删除配置的 server 信息
masterha_stop  关闭manager

#node 组件安装后也会在/usr/local/bin 下面会生成几个脚本(这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下:
save_binary_logs 保存和复制 master 的二进制日志
apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的 slave
filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)
purge_relay_logs 清除中继日志(不会阻塞 SQL 线程)

 在所有服务器上配置无密码认证

在 manager 节点上配置到所有数据库节点的无密码认证

ssh-keygen -t rsa 				#一路按回车键
ssh-copy-id 192.168.75.10
ssh-copy-id 192.168.75.20
ssh-copy-id 192.168.75.30

在 mysql1 上配置到数据库节点 mysql2 和 mysql3 的无密码认证

ssh-keygen -t rsa
ssh-copy-id 192.168.75.20
ssh-copy-id 192.168.75.30

在 mysql2 上配置到数据库节点 mysql1 和 mysql3 的无密码认证

ssh-keygen -t rsa
ssh-copy-id 192.168.75.10
ssh-copy-id 192.168.75.30

 在 mysql3 上配置到数据库节点 mysql1 和 mysql2 的无密码认证

ssh-keygen -t rsa
ssh-copy-id 192.168.75.10
ssh-copy-id 192.168.75.20

在 manager 节点上配置 MHA

在 manager 节点上复制相关脚本到/usr/local/bin 目录

cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
#拷贝后会有四个执行文件

 master_ip_failover          #自动切换时 VIP 管理的脚本
master_ip_online_change     #在线切换时 VIP 的管理
power_manager                 #故障发生后关闭主机的脚本
send_report                 #因故障切换后发送报警的脚本

 复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换

cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin

修改内容如下:(删除原有内容,直接复制并修改vip相关参数。可在拷贝前输入 :set paste 解决vim粘贴乱序问题)

vim /usr/local/bin/master_ip_failover
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
 
use Getopt::Long;
 
my (
    $command, $orig_master_host, $orig_master_ip,$ssh_user,
    $orig_master_port, $new_master_host, $new_master_ip,$new_master_port,
    $orig_master_ssh_port,$new_master_ssh_port,$new_master_user,$new_master_password
);
 
# 这里定义的虚拟IP配置要注意,这个ip必须要与你自己的集群在同一个网段,否则无效
my $vip = '192.168.75.111/24';
my $key = '1';
# 这里的网卡名称 “ens33” 需要根据你机器的网卡名称进行修改
# 如果多台机器直接的网卡名称不统一,有两种方式,一个是改脚本,二是把网卡名称修改成统一
# 我这边实际情况是修改成统一的网卡名称
my $ssh_start_vip = "sudo /sbin/ifconfig ens33:$key $vip";
my $ssh_stop_vip = "sudo /sbin/ifconfig ens33:$key down";
my $ssh_Bcast_arp= "sudo /sbin/arping -I ens33 -c 3 -A $vip";

GetOptions(
    'command=s'          => \$command,
    'ssh_user=s'         => \$ssh_user,
    'orig_master_host=s' => \$orig_master_host,
    'orig_master_ip=s'   => \$orig_master_ip,
    'orig_master_port=i' => \$orig_master_port,
    'orig_master_ssh_port=i' => \$orig_master_ssh_port,
    'new_master_host=s'  => \$new_master_host,
    'new_master_ip=s'    => \$new_master_ip,
    'new_master_port=i'  => \$new_master_port,
    'new_master_ssh_port' => \$new_master_ssh_port,
    'new_master_user' => \$new_master_user,
    'new_master_password' => \$new_master_password
 
);
 
exit &main();
 
sub main {
    $ssh_user = defined $ssh_user ? $ssh_user : 'root';
    print "\n\nIN SCRIPT TEST====$ssh_user|$ssh_stop_vip==$ssh_user|$ssh_start_vip===\n\n";
 
    if ( $command eq "stop" || $command eq "stopssh" ) {
 
        my $exit_code = 1;
        eval {
            print "Disabling the VIP on old master: $orig_master_host \n";
            &stop_vip();
            $exit_code = 0;
        };
        if ($@) {
            warn "Got Error: $@\n";
            exit $exit_code;
        }
        exit $exit_code;
    }
    elsif ( $command eq "start" ) {
 
        my $exit_code = 10;
        eval {
            print "Enabling the VIP - $vip on the new master - $new_master_host \n";
            &start_vip();
        &start_arp();
            $exit_code = 0;
        };
        if ($@) {
            warn $@;
            exit $exit_code;
        }
        exit $exit_code;
    }
    elsif ( $command eq "status" ) {
        print "Checking the Status of the script.. OK \n";
        exit 0;
    }
    else {
        &usage();
        exit 1;
    }
}
 
sub start_vip() {
    `ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
sub stop_vip() {
    `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
 
sub start_arp() {
    `ssh $ssh_user\@$new_master_host \" $ssh_Bcast_arp \"`;
}
sub usage {
    print
    "Usage: master_ip_failover --command=start|stop|stopssh|status --ssh_user=user --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}

 创建 MHA 软件目录并拷贝配置文件

#创建相关目录(所有节点)
mkdir -p /opt/mysql-mha/mha-node

# manager节点
mkdir -p /opt/mysql-mha/mha

#编写配置文件
vim /opt/mysql-mha/mysql_mha.cnf
[server default]
manager_log=/opt/mysql-mha/manager.log		#指定manager日志路径
manager_workdir=/opt/mysql-mha/mha			#指定manager工作目录
master_binlog_dir=/usr/local/mysql/data		#指定master保存binlog的位置,这里的路径要与master里配置的binlog的路径一致,以便MHA能找到
master_ip_failover_script=/usr/local/bin/master_ip_failover  #设置自动failover时候的切换脚本,也就是上面的那个脚本
master_ip_online_change_script=/usr/local/bin/master_ip_online_change  #设置手动切换时候的切换脚本
user=mha					#设置mha访问数据库的账号
password=666			#设置mha访问数据库的账号密码
ping_interval=1				#设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行failover
remote_workdir=/opt/mysql-mha/mha-node		#指定mha在远程节点上的工作目录
repl_user=myslave			#设置主从复制的用户
repl_password=666	#设置主从复制的用户密码
report_script=/usr/local/send_report     #设置发生故障切换的时候发送邮件提醒
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.80.11 -s 192.168.80.12	#指定检查的从服务器IP地址
shutdown_script=""			#设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机防止发生脑裂,这里没有使用)
ssh_user=root				#设置ssh的登录用户名

[server1]
hostname=192.168.75.10
port=3306

[server2]
hostname=192.168.75.20
port=3306
candidate_master=1
#设置为候选master,设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个从库不是集群中最新的slave

check_repl_delay=0
#默认情况下如果一个slave落后master 超过100M的relay logs的话,MHA将不会选择该slave作为一个新的master, 因为对于这个slave的恢复需要花费很长时间;通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master

[server3]
hostname=192.168.75.30
port=3306

 

第一次配置需要在 Master 节点上手动开启虚拟IP

/sbin/ifconfig ens33:1 192.168.75.111/24

 

 在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully,如下所示。

masterha_check_ssh -conf=/opt/mysql-mha/mysql_mha.cnf

 

在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。

masterha_check_repl -conf=/opt/mysql-mha/mysql_mha.cnf

 

 在 manager 节点上启动 MHA

nohup masterha_manager \
--conf=/opt/mysql-mha/mysql_mha.cnf \
--remove_dead_master_conf \
--ignore_last_failover < /dev/null > /var/log/mha_manager.log 2>&1 &

------------------------------------------------------------------------------------------
--remove_dead_master_conf:该参数代表当发生主从切换后,老的主库的 ip 将会从配置文件中移除。
--ignore_last_failover:在缺省情况下,如果 MHA 检测到连续发生宕机,且两次宕机间隔不足 8 小时的话,则不会进行 Failover, 之所以这样限制是为了避免 ping-pong 效应。该参数代表忽略上次 MHA 触发切换产生的文件,默认情况下,MHA 发生切换后会在 app1.failover.complete 日志文件中记录,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换, 除非在第一次切换后删除该文件,为了方便,这里设置为--ignore_last_failover。

使用&后台运行程序:结果会输出到终端;使用Ctrl+C发送SIGINT信号,程序免疫;关闭session发送SIGHUP信号,程序关闭。
使用nohup运行程序:结果默认会输出到nohup.out;使用Ctrl+C发送SIGINT信号,程序关闭;关闭session发送SIGHUP信号,程序免疫。
使用nohup和&配合来启动程序nohup ./test &:同时免疫SIGINT和SIGHUP信号。

 

查看 MHA 状态,可以看到当前的 master 是 mysql1 节点。

masterha_check_status --conf=/opt/mysql-mha/mysql_mha.cnf

 

 查看 MHA 日志,也以看到当前的 master 是 192.168.80.10,如下所示。

cat /opt/mysql-mha/manager.log | grep "current master"

 

故障模拟 

在 Master 节点 mysql1 上停止mysql服务

跟踪mha服务器的日志(发现切换成功) 

查看mha的配置文件 

 

查看mysql2 

查看mysql3 

故障数据库恢复使用 

在 manager 节点上修改配置文件(再把[server1]这个记录添加进去,因为它检测掉失效时候会自动消失)

 在 manager 节点上启动 MHA

nohup masterha_manager \
--conf=/opt/mysql-mha/mysql_mha.cnf \
--remove_dead_master_conf \
--ignore_last_failover < /dev/null > /var/log/mha_manager.log 2>&1 &

去到mysql2关闭mysql服务, 去到mysql1重新开启mysql服务,并查看状态

在manager 节点上看tail -f /opt/mysql-mha/manager.log

去到mysql3上进入到mysql数据中看

 

 

  • 18
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MySQL MHA(Master High Availability)是一套用于实现MySQL高可用环境下故障切换和主从复制的软件。它的主要目的是解决MySQL单点故障的问题,并在故障切换过程中能够在0-30秒内自动完成切换操作。MHA通过最大程度上保证数据的一致性来实现真正意义上的高可用性。 MHA的组成包括管理节点(manager node)、MHA节点(MHA node)和MySQL节点(MySQL node)。管理节点负责监控MySQL集群的状态,并在需要时触发故障切换操作。MHA节点是用于安装和配置MHA软件的节点,其中包括管理节点和备份节点。MySQL节点则是实际运行MySQL数据库服务的节点,包括主节点和从节点。 搭建MySQL MHA的过程可以分为以下几个步骤: 1. 准备MHA环境,包括安装必要的组件和配置文件。 2. 安装MHA的所有组件,包括管理节点和备份节点。 3. 在管理节点上配置脚本,以监控MySQL集群的状态并触发故障切换操作。 4. 修改配置文件app1.cnf,配置MySQL节点的主机名、用户名、密码、工作目录等信息。 5. 测试服务是否正常运行,确保MySQL集群的各个节点能够正常通信。 6. 进行故障模拟和修复的测试,以验证MHA的故障切换和主从复制功能。 在使用MHA时,需要了解合理配置MHA配置文件[3]。MHA配置文件类似于MySQL的my.cnf文件,采用param=value的形式进行配置配置文件通常包括每个MySQL节点的主机名、用户名、密码、工作目录等信息。 综上所述,MySQL MHA是一套用于实现MySQL高可用环境下故障切换和主从复制的软件,通过自动完成故障切换操作并保证数据一致性,实现了真正意义上的高可用性。搭建MySQL MHA的过程包括准备环境、安装组件、配置脚本和文件、测试服务、故障模拟与修复等步骤。在使用MHA时,需要合理配置MHA配置文件来确保其正常运行。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值