MySQL 高可用架构MHA 多Master

转载:https://www.cnblogs.com/gomysql/p/3675429.html

简介:

MHA(Master High Availability)目前在MySQL高可用方面是一个相对成熟的解决方案,它由日本DeNA公司youshimaton(现就职于Facebook公司)开发,是一套优秀的作为MySQL高可用性环境下故障切换和主从提升的高可用软件。在MySQL故障切换过程中,MHA能做到在0~30秒之内自动完成数据库的故障切换操作,并且在进行故障切换的过程中,MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用。

该软件由两部分组成:MHA Manager(管理节点)和MHA Node(数据节点)。MHA Manager可以单独部署在一台独立的机器上管理多个master-slave集群,也可以部署在一台slave节点上。MHA Node运行在每台MySQL服务器上,MHA Manager会定时探测集群中的master节点,当master出现故障时,它可以自动将最新数据的slave提升为新的master,然后将所有其他的slave重新指向新的master。整个故障转移过程对应用程序完全透明。

在MHA自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据的不丢失,但这并不总是可行的。例如,如果主服务器硬件故障或无法通过ssh访问,MHA没法保存二进制日志,只进行故障转移而丢失了最新的数据。使用MySQL 5.5的半同步复制,可以大大降低数据丢失的风险。MHA可以与半同步复制结合起来。如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性。

目前MHA主要支持一主多从的架构,要搭建MHA,要求一个复制集群中必须最少有三台数据库服务器,一主二从,即一台充当master,一台充当备用master,另外一台充当从库,因为至少需要三台服务器,出于机器成本的考虑,淘宝也在该基础上进行了改造,目前淘宝TMHA已经支持一主一从。另外对于想快速搭建的可以参考:MHA快速搭建

我们自己使用其实也可以使用1主1从,但是master主机宕机后无法切换,以及无法补全binlog。master的mysqld进程crash后,还是可以切换成功,以及补全binlog的。

官方介绍:https://code.google.com/p/mysql-master-ha/

图01展示了如何通过MHA Manager管理多组主从复制。可以将MHA工作原理总结为如下:

img_3816d7be7cb8e85711e5ec6530840384.png

                                 ( 图01 )

(1)从宕机崩溃的master保存二进制日志事件(binlog events);

(2)识别含有最新更新的slave;

(3)应用差异的中继日志(relay log)到其他的slave;

(4)应用从master保存的二进制日志事件(binlog events);

(5)提升一个slave为新的master;

(6)使其他的slave连接新的master进行复制;

MHA软件由两部分组成,Manager工具包和Node工具包,具体的说明如下。

Manager工具包主要包括以下几个工具:

img_51e409b11aa51c150090697429a953ed.gif

masterha_check_ssh              检查MHA的SSH配置状况

masterha_check_repl            检查MySQL复制状况

masterha_manger                启动MHA

masterha_check_status          检测当前MHA运行状态

masterha_master_monitor        检测master是否宕机

masterha_master_switch          控制故障转移(自动或者手动)

masterha_conf_host              添加或删除配置的server信息

img_51e409b11aa51c150090697429a953ed.gif

Node工具包(这些工具通常由MHA Manager的脚本触发,无需人为操作)主要包括以下几个工具:

save_binary_logs                保存和复制master的二进制日志

apply_diff_relay_logs          识别差异的中继日志事件并将其差异的事件应用于其他的slave

filter_mysqlbinlog              去除不必要的ROLLBACK事件(MHA已不再使用这个工具)

purge_relay_logs                清除中继日志(不会阻塞SQL线程)

注意:

为了尽可能的减少主库硬件损坏宕机造成的数据丢失,因此在配置MHA的同时建议配置成MySQL 5.5的半同步复制。关于半同步复制原理各位自己进行查阅。(不是必须)

1.部署MHA

接下来部署MHA,具体的搭建环境如下(所有操作系统均为centos 6.2 64bit,不是必须,server03和server04是server02的从,复制环境搭建后面会简单演示,但是相关的安全复制不会详细说明,需要的童鞋请参考前面的文章,MySQL Replication需要注意的问题):

角色                    ip地址          主机名          server_id                  类型

Monitor host            192.168.0.20server01            -                      监控复制组

Master                  192.168.0.50server021                      写入

Candicate master        192.168.0.60server032                      读

Slave                  192.168.0.70server043读

其中master对外提供写服务,备选master(实际的slave,主机名server03)提供读服务,slave也提供相关的读服务,一旦master宕机,将会把备选master提升为新的master,slave指向新的master

(1)在所有节点安装MHA node所需的perl模块(DBD:mysql),安装脚本如下:

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.50~]#catinstall.sh

#!/bin/bashwgethttp://xrl.us/cpanm --no-check-certificatemvcpanm /usr/binchmod755/usr/bin/cpanmcat> /root/list << EOFinstall DBD::mysql

EOFforpackagein`cat/root/list`do    cpanm $packagedone[root@192.168.0.50~]#

img_51e409b11aa51c150090697429a953ed.gif

如果有安装epel源,也可以使用yum安装

yuminstallperl-DBD-MySQL -y

(2)在所有的节点安装mha node:

wgethttp://mysql-master-ha.googlecode.com/files/mha4mysql-node-0.53.tar.gztarxf mha4mysql-node-0.53.tar.gz

cd mha4mysql-node-0.53perl Makefile.PLmake&&makeinstall

安装完成后会在/usr/local/bin目录下生成以下脚本文件:

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.50bin]#pwd/usr/local/bin

[root@192.168.0.50 bin]# ll

total 40-r-xr-xr-x1root root15498Apr2010:05 apply_diff_relay_logs-r-xr-xr-x1root root4807Apr2010:05 filter_mysqlbinlog-r-xr-xr-x1root root7401Apr2010:05 purge_relay_logs-r-xr-xr-x1root root7263Apr2010:05 save_binary_logs

[root@192.168.0.50bin]#

img_51e409b11aa51c150090697429a953ed.gif

关于上面脚本的功能,上面已经介绍过了,这里不再重复了。

2.安装MHA Manager

MHA Manager中主要包括了几个管理员的命令行工具,例如master_manger,master_master_switch等。MHA Manger也依赖于perl模块,具体如下:

(1)安装MHA Node软件包之前需要安装依赖。我这里使用yum完成,没有epel源的可以使用上面提到的脚本(epel源安装也简单)。注意:在MHA Manager的主机也是需要安装MHA Node。

rpm -ivh http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm

yuminstallperl-DBD-MySQL -y

安装MHA Node软件包,和上面的方法一样,如下:

wgethttp://mysql-master-ha.googlecode.com/files/mha4mysql-node-0.53.tar.gztarxf mha4mysql-node-0.53.tar.gz

cd mha4mysql-node-0.53perl Makefile.PLmake&&makeinstall

(2)安装MHA Manager。首先安装MHA Manger依赖的perl模块(我这里使用yum安装):

yuminstallperl-DBD-MySQLperl-Config-Tinyperl-Log-Dispatchperl-Parallel-ForkManagerperl-Time-HiRes -y

安装MHA Manager软件包:

wgethttp://mysql-master-ha.googlecode.com/files/mha4mysql-manager-0.53.tar.gztarxf mha4mysql-manager-0.53.tar.gz

cd mha4mysql-manager-0.53perl Makefile.PLmake&&makeinstall

安装完成后会在/usr/local/bin目录下面生成以下脚本文件,前面已经说过这些脚本的作用,这里不再重复

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.20bin]#pwd/usr/local/bin

[root@192.168.0.20 bin]# ll

total 76-r-xr-xr-x1root root15498Apr2010:58 apply_diff_relay_logs-r-xr-xr-x1root root4807Apr2010:58 filter_mysqlbinlog-r-xr-xr-x1root root1995Apr2011:33 masterha_check_repl-r-xr-xr-x1root root1779Apr2011:33 masterha_check_ssh-r-xr-xr-x1root root1865Apr2011:33 masterha_check_status-r-xr-xr-x1root root3201Apr2011:33 masterha_conf_host-r-xr-xr-x1root root2517Apr2011:33 masterha_manager-r-xr-xr-x1root root2165Apr2011:33 masterha_master_monitor-r-xr-xr-x1root root2373Apr2011:33 masterha_master_switch-r-xr-xr-x1root root3749Apr2011:33 masterha_secondary_check-r-xr-xr-x1root root1739Apr2011:33 masterha_stop-r-xr-xr-x1root root7401Apr2010:58 purge_relay_logs-r-xr-xr-x1root root7263Apr2010:58 save_binary_logs

[root@192.168.0.20bin]#

img_51e409b11aa51c150090697429a953ed.gif

复制相关脚本到/usr/local/bin目录(软件包解压缩后就有了,不是必须,因为这些脚本不完整,需要自己修改,这是软件开发着留给我们自己发挥的,如果开启下面的任何一个脚本对应的参数,而对应这里的脚本又没有修改,则会抛错,自己被坑的很惨)

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.20scripts]#pwd/root/mha4mysql-manager-0.53/samples/scripts

[root@192.168.0.20 scripts]# ll

total 32-rwxr-xr-x1root root3443Jan82012 master_ip_failover                #自动切换时vip管理的脚本,不是必须,如果我们使用keepalived的,我们可以自己编写脚本完成对vip的管理,比如监控mysql,如果mysql异常,我们停止keepalived就行,这样vip就会自动漂移-rwxr-xr-x1root root9186Jan82012 master_ip_online_change          #在线切换时vip的管理,不是必须,同样可以可以自行编写简单的shell完成-rwxr-xr-x1root root11867Jan82012 power_manager                    #故障发生后关闭主机的脚本,不是必须-rwxr-xr-x1root root1360Jan82012 send_report                      #因故障切换后发送报警的脚本,不是必须,可自行编写简单的shell完成。

[root@192.168.0.20scripts]#cp* /usr/local/bin/[root@192.168.0.20scripts]#

img_51e409b11aa51c150090697429a953ed.gif

3.配置SSH登录无密码验证(使用key登录,工作中常用)我的测试环境已经是使用key登录,服务器之间无需密码验证的。关于配置使用key登录,我想我不再重复。但是有一点需要注意:不能禁止 password 登陆,否则会出现错误

4.搭建主从复制环境

注意:binlog-do-db 和 replicate-ignore-db 设置必须相同。 MHA 在启动时候会检测过滤规则,如果过滤规则不同,MHA 不启动监控和故障转移。

(1)在server02上执行备份(192.168.0.50)

[root@192.168.0.50~]# mysqldump --master-data=2--single-transaction -R --triggers -A > all.sql

其中--master-data=2代表备份时刻记录master的Binlog位置和Position,--single-transaction意思是获取一致性快照,-R意思是备份存储过程和函数,--triggres的意思是备份触发器,-A代表备份所有的库。更多信息请自行mysqldump --help查看。

(2)在server02上创建复制用户:

img_51e409b11aa51c150090697429a953ed.gif

mysql>grantreplicationslaveon*.*to'repl'@'192.168.0.%'identifiedby'123456';

Query OK, 0rows affected (0.00 sec)

mysql>flushprivileges;

Query OK, 0rows affected (0.00 sec)

mysql>

img_51e409b11aa51c150090697429a953ed.gif

(3)查看主库备份时的binlog名称和位置,MASTER_LOG_FILE和MASTER_LOG_POS:

[root@192.168.0.50~]#head-n30all.sql |grep'CHANGE MASTER TO'-- CHANGE MASTER TO MASTER_LOG_FILE='mysql-bin.000010', MASTER_LOG_POS=112;

[root@192.168.0.50~]#

(4)把备份复制到server03和server04,也就是192.168.0.60和192.168.0.70

scpall.sql server03:/data/scpall.sql server04:/data/

(5)导入备份到server03,执行复制相关命令

mysql < /data/all.sql

img_51e409b11aa51c150090697429a953ed.gif

mysql>CHANGE MASTERTOMASTER_HOST='192.168.0.50',MASTER_USER='repl', MASTER_PASSWORD='123456',MASTER_LOG_FILE='mysql-bin.000010',MASTER_LOG_POS=112;

Query OK, 0rows affected (0.02 sec)

mysql> start slave;

Query OK, 0rows affected (0.01 sec)

mysql>

img_51e409b11aa51c150090697429a953ed.gif

查看复制状态(可以看见复制成功):

[root@192.168.0.60~]# mysql -e'show slave status\G'|egrep'Slave_IO|Slave_SQL'              Slave_IO_State: Waiting for master to send event

            Slave_IO_Running: Yes

            Slave_SQL_Running: Yes

[root@192.168.0.60~]#

(6)在server04(192.168.0.70)上搭建复制环境,操作和上面一样。

mysql < /data/all.sql

img_51e409b11aa51c150090697429a953ed.gif

mysql>CHANGE MASTERTOMASTER_HOST='192.168.0.50',MASTER_USER='repl', MASTER_PASSWORD='123456',MASTER_LOG_FILE='mysql-bin.000010',MASTER_LOG_POS=112;

Query OK, 0rows affected (0.07 sec)

mysql> start slave;

Query OK, 0rows affected (0.00 sec)

mysql>

img_51e409b11aa51c150090697429a953ed.gif

查看复制状态:

[root@192.168.0.70~]# mysql -e'show slave status\G'|egrep'Slave_IO|Slave_SQL'              Slave_IO_State: Waiting for master to send event

            Slave_IO_Running: Yes

            Slave_SQL_Running: Yes

[root@192.168.0.70~]#

(7)两台slave服务器设置read_only(从库对外提供读服务,只所以没有写进配置文件,是因为随时slave会提升为master

[root@192.168.0.60~]# mysql -e'set global read_only=1'[root@192.168.0.60~]#

[root@192.168.0.70~]# mysql -e'set global read_only=1'[root@192.168.0.70~]#

(8)创建监控用户(在master上执行,也就是192.168.0.50):

img_51e409b11aa51c150090697429a953ed.gif

mysql>grantallprivilegeson*.*to'root'@'192.168.0.%'identifiedby'123456';

Query OK, 0rows affected (0.00 sec)

mysql>flushprivileges;

Query OK, 0rows affected (0.01 sec)

mysql>

img_51e409b11aa51c150090697429a953ed.gif

到这里整个集群环境已经搭建完毕,剩下的就是配置MHA软件了。

5.配置MHA

(1)创建MHA的工作目录,并且创建相关配置文件(在软件包解压后的目录里面有样例配置文件)。

[root@192.168.0.20~]#mkdir-p /etc/masterha

[root@192.168.0.20~]#cpmha4mysql-manager-0.53/samples/conf/app1.cnf /etc/masterha/[root@192.168.0.20~]#

修改app1.cnf配置文件,修改后的文件内容如下(注意,配置文件中的注释需要去掉,我这里是为了解释清楚):

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.20~]#cat/etc/masterha/app1.cnf

[server default]

manager_workdir=/var/log/masterha/app1.log//设置manager的工作目录manager_log=/var/log/masterha/app1/manager.log//设置manager的日志master_binlog_dir=/data/mysql//设置master 保存binlog的位置,以便MHA可以找到master的日志,我这里的也就是mysql的数据目录master_ip_failover_script= /usr/local/bin/master_ip_failover//设置自动failover时候的切换脚本master_ip_online_change_script= /usr/local/bin/master_ip_online_change//设置手动切换时候的切换脚本password=123456//设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码user=root              设置监控用户root

ping_interval=1//设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行railoverremote_workdir=/tmp//设置远端mysql在发生切换时binlog的保存位置repl_password=123456//设置复制用户的密码repl_user=repl//设置复制环境中的复制用户名report_script=/usr/local/send_report//设置发生切换后发送的报警的脚本secondary_check_script= /usr/local/bin/masterha_secondary_check -s server03 -s server02

shutdown_script=""//设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机放在发生脑裂,这里没有使用)ssh_user=root//设置ssh的登录用户名[server1]hostname=192.168.0.50port=3306[server2]hostname=192.168.0.60port=3306candidate_master=1//设置为候选master,如果设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个主库不是集群中事件最新的slavecheck_repl_delay=0//默认情况下如果一个slave落后master 100M的relay logs的话,MHA将不会选择该slave作为一个新的master,因为对于这个slave的恢复需要花费很长时间,通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master[server3]hostname=192.168.0.70port=3306[root@192.168.0.20~]#

img_51e409b11aa51c150090697429a953ed.gif

(2)设置relay log的清除方式(在每个slave节点上):

[root@192.168.0.60~]# mysql -e'set global relay_log_purge=0'[root@192.168.0.70~]# mysql -e'set global relay_log_purge=0'

注意:

MHA在发生切换的过程中,从库的恢复过程中依赖于relay log的相关信息,所以这里要将relay log的自动清除设置为OFF,采用手动清除relay log的方式。在默认情况下,从服务器上的中继日志会在SQL线程执行完毕后被自动删除。但是在MHA环境中,这些中继日志在恢复其他从服务器时可能会被用到,因此需要禁用中继日志的自动删除功能。定期清除中继日志需要考虑到复制延时的问题。在ext3的文件系统下,删除大的文件需要一定的时间,会导致严重的复制延时。为了避免复制延时,需要暂时为中继日志创建硬链接,因为在linux系统中通过硬链接删除大文件速度会很快。(在mysql数据库中,删除大表时,通常也采用建立硬链接的方式)

MHA节点中包含了pure_relay_logs命令工具,它可以为中继日志创建硬链接,执行SET GLOBAL relay_log_purge=1,等待几秒钟以便SQL线程切换到新的中继日志,再执行SET GLOBAL relay_log_purge=0。

pure_relay_logs脚本参数如下所示:

img_51e409b11aa51c150090697429a953ed.gif

--user mysql                      用户名--password mysql                  密码--port                            端口号--workdir                        指定创建relay log的硬链接的位置,默认是/var/tmp,由于系统不同分区创建硬链接文件会失败,故需要执行硬链接具体位置,成功执行脚本后,硬链接的中继日志文件被删除--disable_relay_log_purge        默认情况下,如果relay_log_purge=1,脚本会什么都不清理,自动退出,通过设定这个参数,当relay_log_purge=1的情况下会将relay_log_purge设置为0。清理relay log之后,最后将参数设置为OFF。

img_51e409b11aa51c150090697429a953ed.gif

(3)设置定期清理relay脚本(两台slave服务器)

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.60~]#catpurge_relay_log.sh

#!/bin/bash

user=rootpasswd=123456port=3306log_dir='/data/masterha/log'work_dir='/data'purge='/usr/local/bin/purge_relay_logs'if[ ! -d $log_dir ]thenmkdir$log_dir -pfi$purge --user=$user --password=$passwd--disable_relay_log_purge --port=$port --workdir=$work_dir >> $log_dir/purge_relay_logs.log2>&1[root@192.168.0.60~]#

img_51e409b11aa51c150090697429a953ed.gif

添加到crontab定期执行

[root@192.168.0.60~]# crontab -l04* * * /bin/bash /root/purge_relay_log.sh[root@192.168.0.60~]#

purge_relay_logs脚本删除中继日志不会阻塞SQL线程。下面我们手动执行看看什么情况。

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.60~]# purge_relay_logs --user=root --password=123456--port=3306-disable_relay_log_purge --workdir=/data/2014-04-2015:47:24: purge_relay_logs script started.

Found relay_log.info: /data/mysql/relay-log.info Removing hard linked relay log files server03-relay-bin* under /data/..done.

Current relay log file: /data/mysql/server03-relay-bin.000002 Archiving unused relay log files (up to /data/mysql/server03-relay-bin.000001) ...

Creating hard link for/data/mysql/server03-relay-bin.000001under /data//server03-relay-bin.000001 .. ok.Creating hard linksfor unused relay log files completed.

Executing SET GLOBAL relay_log_purge=1; FLUSH LOGS; sleeping a few seconds so that SQL thread can delete older relay log files (ifit keeps up); SET GLOBAL relay_log_purge=0; .. ok.

Removing hard linked relay log files server03-relay-bin* under /data/..done.2014-04-2015:47:27: All relay log purging operations succeeded.

[root@192.168.0.60~]#

img_51e409b11aa51c150090697429a953ed.gif

6.检查SSH配置

检查MHA Manger到所有MHA Node的SSH连接状态:

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.20~]# masterha_check_ssh --conf=/etc/masterha/app1.cnf

Sun Apr 2017:17:392014- [warning] Global configurationfile/etc/masterha_default.cnf not found. Skipping.

Sun Apr 2017:17:392014- [info] Reading application default configurations from /etc/masterha/app1.cnf..

Sun Apr 2017:17:392014- [info] Reading server configurations from /etc/masterha/app1.cnf..

Sun Apr 2017:17:392014- [info] Starting SSH connection tests..

Sun Apr 2017:17:402014- [debug]

Sun Apr 2017:17:392014- [debug]  Connecting via SSH from root@192.168.0.50(192.168.0.50:22) to root@192.168.0.60(192.168.0.60:22)..

Sun Apr 2017:17:392014- [debug]  ok.

Sun Apr 2017:17:392014- [debug]  Connecting via SSH from root@192.168.0.50(192.168.0.50:22) to root@192.168.0.70(192.168.0.70:22)..

Sun Apr 2017:17:392014- [debug]  ok.

Sun Apr 2017:17:402014- [debug]

Sun Apr 2017:17:402014- [debug]  Connecting via SSH from root@192.168.0.60(192.168.0.60:22) to root@192.168.0.50(192.168.0.50:22)..

Sun Apr 2017:17:402014- [debug]  ok.

Sun Apr 2017:17:402014- [debug]  Connecting via SSH from root@192.168.0.60(192.168.0.60:22) to root@192.168.0.70(192.168.0.70:22)..

Sun Apr 2017:17:402014- [debug]  ok.

Sun Apr 2017:17:412014- [debug]

Sun Apr 2017:17:402014- [debug]  Connecting via SSH from root@192.168.0.70(192.168.0.70:22) to root@192.168.0.50(192.168.0.50:22)..

Sun Apr 2017:17:402014- [debug]  ok.

Sun Apr 2017:17:402014- [debug]  Connecting via SSH from root@192.168.0.70(192.168.0.70:22) to root@192.168.0.60(192.168.0.60:22)..

Sun Apr 2017:17:412014- [debug]  ok.

Sun Apr 2017:17:412014- [info] All SSH connection tests passed successfully.

img_51e409b11aa51c150090697429a953ed.gif

可以看见各个节点ssh验证都是ok的。

7.检查整个复制环境状况。

通过masterha_check_repl脚本查看整个集群的状态

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.20~]# masterha_check_repl --conf=/etc/masterha/app1.cnf

Sun Apr 2018:36:552014- [info] Checking replication health on192.168.0.60..

Sun Apr 2018:36:552014- [info]  ok.

Sun Apr 2018:36:552014- [info] Checking replication health on192.168.0.70..

Sun Apr 2018:36:552014- [info]  ok.

Sun Apr 2018:36:552014- [info] Checking master_ip_failover_script status:

Sun Apr 2018:36:552014- [info]  /usr/local/bin/master_ip_failover --command=status --ssh_user=root --orig_master_host=192.168.0.50--orig_master_ip=192.168.0.50--orig_master_port=3306

Bareword "FIXME_xxx"not allowedwhile"strict subs"inuse at /usr/local/bin/master_ip_failover line88.

Execution of /usr/local/bin/master_ip_failover aborted due to compilation errors.

Sun Apr 2018:36:552014- [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln214]  Failed to get master_ip_failover_script status with return code255:0.

Sun Apr 2018:36:552014- [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln383] Error happend on checking configurations.  at /usr/local/bin/masterha_check_repl line48Sun Apr 2018:36:552014- [error][/usr/local/share/perl5/MHA/MasterMonitor.pm, ln478] Error happened on monitoring servers.

Sun Apr 2018:36:552014- [info] Got exit code1 (Not master dead).

MySQL Replication Health is NOT OK!

img_51e409b11aa51c150090697429a953ed.gif

发现最后的结论说我的复制不是ok的。但是上面的信息明明说是正常的,自己也进数据库查看了。这里一直踩坑。一直纠结,后来无意中发现火丁笔记的博客,这才知道了原因,原来Failover两种方式:一种是虚拟IP地址,一种是全局配置文件。MHA并没有限定使用哪一种方式,而是让用户自己选择,虚拟IP地址的方式会牵扯到其它的软件,比如keepalive软件,而且还要修改脚本master_ip_failover。(最后修改脚本后才没有这个报错,自己不懂perl也是折腾的半死,去年买了块表)

如果发现如下错误:

Can't exec "mysqlbinlog": No such file or directory at /usr/local/share/perl5/MHA/BinlogManager.pm line 99.mysqlbinlog version not found!

Testing mysql connection and privileges..sh: mysql: command not found

解决方法如下,添加软连接(所有节点)

ln-s /usr/local/mysql/bin/mysqlbinlog /usr/local/bin/mysqlbinlog

ln-s /usr/local/mysql/bin/mysql /usr/local/bin/mysql

所以先暂时注释master_ip_failover_script= /usr/local/bin/master_ip_failover这个选项。后面引入keepalived后和修改该脚本以后再开启该选项。

[root@192.168.0.20~]#grepmaster_ip_failover /etc/masterha/app1.cnf

#master_ip_failover_script= /usr/local/bin/master_ip_failover

[root@192.168.0.20~]#

再次进行状态查看:

img_51e409b11aa51c150090697429a953ed.gif

Sun Apr2018:46:082014- [info] Checking replication health on192.168.0.60..

Sun Apr 2018:46:082014- [info]  ok.

Sun Apr 2018:46:082014- [info] Checking replication health on192.168.0.70..

Sun Apr 2018:46:082014- [info]  ok.

Sun Apr 2018:46:082014- [warning] master_ip_failover_script is not defined.

Sun Apr 2018:46:082014- [warning] shutdown_script is not defined.

Sun Apr 2018:46:082014- [info] Got exit code0 (Not master dead).

MySQL Replication Health is OK.

img_51e409b11aa51c150090697429a953ed.gif

已经没有明显报错,只有两个警告而已,复制也显示正常了。

8.检查MHA Manager的状态:

通过master_check_status脚本查看Manager的状态:

[root@192.168.0.20~]# masterha_check_status --conf=/etc/masterha/app1.cnf

app1 is stopped(2:NOT_RUNNING).

[root@192.168.0.20~]#

注意:如果正常,会显示"PING_OK",否则会显示"NOT_RUNNING",这代表MHA监控没有开启。

9.开启MHA Manager监控

[root@192.168.0.20~]# nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null> /var/log/masterha/app1/manager.log2>&1& 

[1]30867[root@192.168.0.20~]#

启动参数介绍:

--remove_dead_master_conf      该参数代表当发生主从切换后,老的主库的ip将会从配置文件中移除。

--manger_log                            日志存放位置

--ignore_last_failover                 在缺省情况下,如果MHA检测到连续发生宕机,且两次宕机间隔不足8小时的话,则不会进行Failover,之所以这样限制是为了避免ping-pong效应。该参数代表忽略上次MHA触发切换产生的文件,默认情况下,MHA发生切换后会在日志目录,也就是上面我设置的/data产生app1.failover.complete文件,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件,为了方便,这里设置为--ignore_last_failover。

查看MHA Manager监控是否正常:

[root@192.168.0.20~]# masterha_check_status --conf=/etc/masterha/app1.cnf

app1 (pid:20386) is running(0:PING_OK), master:192.168.0.50[root@192.168.0.20~]#

可以看见已经在监控了,而且master的主机为192.168.0.50

10.查看启动日志

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.20~]#tail-n20 /var/log/masterha/app1/manager.logSun Apr 2019:12:012014- [info]  Connecting to root@192.168.0.70(192.168.0.70:22)..

  Checking slave recovery environment settings..

    Opening /data/mysql/relay-log.info ... ok.

    Relay log found at /data/mysql, up to server04-relay-bin.000002    Temporary relay log fileis /data/mysql/server04-relay-bin.000002    Testing mysql connection and privileges.. done.

    Testing mysqlbinlog output.. done.

    Cleaning up test file(s)..done.

Sun Apr 2019:12:012014- [info] Slaves settings checkdone.

Sun Apr 2019:12:012014- [info] 192.168.0.50 (current master)

+--192.168.0.60+--192.168.0.70Sun Apr 2019:12:012014- [warning] master_ip_failover_script is not defined.

Sun Apr 2019:12:012014- [warning] shutdown_script is not defined.

Sun Apr 2019:12:012014- [info] Set masterpinginterval1 seconds.

Sun Apr 2019:12:012014- [info] Set secondary check script: /usr/local/bin/masterha_secondary_check -s server03 -s server02 --user=root --master_host=server02 --master_ip=192.168.0.50--master_port=3306Sun Apr 2019:12:012014- [info] Startingpinghealth check on192.168.0.50(192.168.0.50:3306)..

Sun Apr 2019:12:012014- [info] Ping(SELECT) succeeded, waitinguntilMySQL doesn't respond..[root@192.168.0.20~]#

img_51e409b11aa51c150090697429a953ed.gif

其中"Ping(SELECT) succeeded, waiting until MySQL doesn't respond.."说明整个系统已经开始监控了。

11.关闭MHA Manage监控

关闭很简单,使用masterha_stop命令完成。

[root@192.168.0.20~]# masterha_stop --conf=/etc/masterha/app1.cnf

Stopped app1 successfully.

[1]+  Exit1nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover --manager_log=/data/mamanager.log

[root@192.168.0.20~]#

12.配置VIP

vip配置可以采用两种方式,一种通过keepalived的方式管理虚拟ip的浮动;另外一种通过脚本方式启动虚拟ip的方式(即不需要keepalived或者heartbeat类似的软件)。

1.keepalived方式管理虚拟ip,keepalived配置方法如下:

(1)下载软件进行并进行安装(两台master,准确的说一台是master,另外一台是备选master,在没有切换以前是slave):

[root@192.168.0.50~]#wgethttp://www.keepalived.org/software/keepalived-1.2.12.tar.gz

img_51e409b11aa51c150090697429a953ed.gif

tarxf keepalived-1.2.12.tar.gz         

cd keepalived-1.2.12./configure --prefix=/usr/local/keepalivedmake&&makeinstallcp/usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/cp/usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/mkdir/etc/keepalivedcp/usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/cp/usr/local/keepalived/sbin/keepalived /usr/sbin/

img_51e409b11aa51c150090697429a953ed.gif

(2)配置keepalived的配置文件,在master上配置(192.168.0.50)

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.50~]#cat/etc/keepalived/keepalived.conf! Configuration Filefor keepalived

global_defs {

    notification_email {

    saltstack@163.com

  }

  notification_email_from dba@dbserver.com

  smtp_server 127.0.0.1  smtp_connect_timeout 30  router_id MySQL-HA

}

vrrp_instance VI_1 {

    state BACKUP

    interface eth1

    virtual_router_id 51    priority 150    advert_int 1    nopreempt

    authentication {

    auth_type PASS

    auth_pass 1111    }

    virtual_ipaddress {

        192.168.0.88    }

}

[root@192.168.0.50~]#

img_51e409b11aa51c150090697429a953ed.gif

其中router_id MySQL HA表示设定keepalived组的名称,将192.168.0.88这个虚拟ip绑定到该主机的eth1网卡上,并且设置了状态为backup模式,将keepalived的模式设置为非抢占模式(nopreempt),priority 150表示设置的优先级为150。下面的配置略有不同,但是都是一个意思。

在候选master上配置(192.168.0.60)

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.60~]#cat/etc/keepalived/keepalived.conf ! Configuration Filefor keepalived

global_defs {

    notification_email {

    saltstack@163.com

  }

  notification_email_from dba@dbserver.com

  smtp_server 127.0.0.1  smtp_connect_timeout 30  router_id MySQL-HA

}

vrrp_instance VI_1 {

    state BACKUP

    interface eth1

    virtual_router_id 51    priority 120    advert_int 1    nopreempt

    authentication {

    auth_type PASS

    auth_pass 1111    }

    virtual_ipaddress {

        192.168.0.88    }

}

[root@192.168.0.60~]#

img_51e409b11aa51c150090697429a953ed.gif

(3)启动keepalived服务,在master上启动并查看日志

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.50~]# /etc/init.d/keepalived start

Starting keepalived:                                      [  OK  ]

[root@192.168.0.50~]#tail-f /var/log/messages

Apr 2020:22:16192Keepalived_healthcheckers[15334]: Openingfile'/etc/keepalived/keepalived.conf'.

Apr 2020:22:16192Keepalived_healthcheckers[15334]: Configuration is using :7231 Bytes

Apr 2020:22:16192kernel: IPVS: Connection hash table configured (size=4096, memory=64Kbytes)

Apr 2020:22:16192 kernel: IPVS: ipvs loaded.

Apr 2020:22:16192Keepalived_healthcheckers[15334]: Using LinkWatch kernel netlink reflector...

Apr 2020:22:19192Keepalived_vrrp[15335]: VRRP_Instance(VI_1) Transition to MASTER STATE

Apr 2020:22:20192Keepalived_vrrp[15335]: VRRP_Instance(VI_1) Entering MASTER STATE

Apr 2020:22:20192Keepalived_vrrp[15335]: VRRP_Instance(VI_1) setting protocol VIPs.

Apr 2020:22:20192Keepalived_vrrp[15335]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth1for192.168.0.88Apr 2020:22:20192Keepalived_healthcheckers[15334]: Netlink reflector reports IP192.168.0.88 added

Apr 2020:22:25192Keepalived_vrrp[15335]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth1for192.168.0.88

img_51e409b11aa51c150090697429a953ed.gif

发现已经将虚拟ip 192.168.0.88绑定了网卡eth1上。

(4)查看绑定情况

[root@192.168.0.50~]# ip addr |grep eth13: eth1: mtu1500qdisc pfifo_fast state UP qlen1000    inet 192.168.0.50/24brd192.168.0.255 scope global eth1

    inet 192.168.0.88/32 scope global eth1

[root@192.168.0.50~]#

在另外一台服务器,候选master上启动keepalived服务,并观察

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.60~]# /etc/init.d/keepalived start ;tail-f /var/log/messages

Starting keepalived:                                      [  OK  ]

Apr 2020:26:18192Keepalived_vrrp[9472]: Registering gratuitous ARP shared channel

Apr 2020:26:18192Keepalived_vrrp[9472]: Openingfile'/etc/keepalived/keepalived.conf'.

Apr 2020:26:18192Keepalived_vrrp[9472]: Configuration is using :62976 Bytes

Apr 2020:26:18192Keepalived_vrrp[9472]: Using LinkWatch kernel netlink reflector...

Apr 2020:26:18192Keepalived_vrrp[9472]:VRRP_Instance(VI_1) Entering BACKUP STATEApr2020:26:18192Keepalived_vrrp[9472]: VRRP sockpool: [ifindex(3), proto(112), unicast(0), fd(10,11)]

Apr 2020:26:18192Keepalived_healthcheckers[9471]: Netlink reflector reports IP192.168.80.138 added

Apr 2020:26:18192Keepalived_healthcheckers[9471]: Netlink reflector reports IP192.168.0.60 added

Apr 2020:26:18192Keepalived_healthcheckers[9471]: Netlink reflector reports IP fe80::20c:29ff:fe9d:6a9e added

Apr 2020:26:18192Keepalived_healthcheckers[9471]: Netlink reflector reports IP fe80::20c:29ff:fe9d:6aa8 added

Apr 2020:26:18192Keepalived_healthcheckers[9471]: Registering Kernel netlink reflector

Apr 2020:26:18192Keepalived_healthcheckers[9471]: Registering Kernel netlink command channel

Apr 2020:26:18192Keepalived_healthcheckers[9471]: Openingfile'/etc/keepalived/keepalived.conf'.

Apr 2020:26:18192Keepalived_healthcheckers[9471]: Configuration is using :7231 Bytes

Apr 2020:26:18192 kernel: IPVS: Registered protocols (TCP, UDP, AH, ESP)

Apr 2020:26:18192kernel: IPVS: Connection hash table configured (size=4096, memory=64Kbytes)

Apr 2020:26:18192 kernel: IPVS: ipvs loaded.

Apr 2020:26:18192Keepalived_healthcheckers[9471]: Using LinkWatch kernel netlink reflector...

img_51e409b11aa51c150090697429a953ed.gif

从上面的信息可以看到keepalived已经配置成功。

注意:

上面两台服务器的keepalived都设置为了BACKUP模式,在keepalived中2种模式,分别是master->backup模式和backup->backup模式。这两种模式有很大区别。在master->backup模式下,一旦主库宕机,虚拟ip会自动漂移到从库,当主库修复后,keepalived启动后,还会把虚拟ip抢占过来,即使设置了非抢占模式(nopreempt)抢占ip的动作也会发生。在backup->backup模式下,当主库宕机后虚拟ip会自动漂移到从库上,当原主库恢复和keepalived服务启动后,并不会抢占新主的虚拟ip,即使是优先级高于从库的优先级别,也不会发生抢占。为了减少ip漂移次数,通常是把修复好的主库当做新的备库。

(5)MHA引入keepalived(MySQL服务进程挂掉时通过MHA 停止keepalived):

要想把keepalived服务引入MHA,我们只需要修改切换是触发的脚本文件master_ip_failover即可,在该脚本中添加在master发生宕机时对keepalived的处理。

编辑脚本/usr/local/bin/master_ip_failover,修改后如下,我对perl不熟悉,所以我这里完整贴出该脚本(主库上操作,192.168.0.50)。

在MHA Manager修改脚本修改后的内容如下(参考资料比较少):

img_51e409b11aa51c150090697429a953ed.gif

#!/usr/bin/env perluse strict;usewarnings FATAL =>'all';useGetopt::Long;my (

    $command,$ssh_user,$orig_master_host,$orig_master_ip,$orig_master_port,$new_master_host,$new_master_ip,$new_master_port);my$vip='192.168.0.88';my$ssh_start_vip="/etc/init.d/keepalived start";my$ssh_stop_vip="/etc/init.d/keepalived stop";

GetOptions(

    'command=s'=> \$command,'ssh_user=s'=> \$ssh_user,'orig_master_host=s'=> \$orig_master_host,'orig_master_ip=s'=> \$orig_master_ip,'orig_master_port=i'=> \$orig_master_port,'new_master_host=s'=> \$new_master_host,'new_master_ip=s'=> \$new_master_ip,'new_master_port=i'=> \$new_master_port,);exit&main();sub main {

    print"\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";

    if($commandeq"stop"||$commandeq"stopssh" ) {

        my$exit_code=1;

        eval {

            print"Disabling the VIP on old master: $orig_master_host \n";

            &stop_vip();

            $exit_code=0;

        };

        if ($@) {

            warn"Got Error: $@\n";

            exit$exit_code;

        }

        exit$exit_code;

    }

    elsif($commandeq"start" ) {

        my$exit_code=10;

        eval {

            print"Enabling the VIP - $vip on the new master - $new_master_host \n";

            &start_vip();

            $exit_code=0;

        };

        if ($@) {

            warn $@;

            exit$exit_code;

        }

        exit$exit_code;

    }

    elsif($commandeq"status" ) {

        print"Checking the Status of the script.. OK \n";

        #`ssh $ssh_user\@cluster1 \" $ssh_start_vip \"`;exit0;

    }

    else {

        &usage();

        exit1;

    }

}# A simple system call that enable the VIP on the new mastersub start_vip() {

    `ssh $ssh_user\@$new_master_host\"$ssh_start_vip \"`;}# A simple system call that disable the VIP on the old_mastersub stop_vip() {

return 0  unless  ($ssh_user);    `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;}sub usage {    print

"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";

}

img_51e409b11aa51c150090697429a953ed.gif

现在已经修改这个脚本了,我们现在打开在上面提到过的参数,再检查集群状态,看是否会报错。

[root@192.168.0.20~]#grep'master_ip_failover_script'/etc/masterha/app1.cnf

master_ip_failover_script= /usr/local/bin/master_ip_failover

[root@192.168.0.20~]#

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.20~]# masterha_check_repl --conf=/etc/masterha/app1.cnf 

Sun Apr 2023:10:012014- [info] Slaves settings checkdone.

Sun Apr 2023:10:012014- [info] 192.168.0.50 (current master)

+--192.168.0.60+--192.168.0.70Sun Apr 2023:10:012014- [info] Checking replication health on192.168.0.60..

Sun Apr 2023:10:012014- [info]  ok.

Sun Apr 2023:10:012014- [info] Checking replication health on192.168.0.70..

Sun Apr 2023:10:012014- [info]  ok.

Sun Apr 2023:10:012014- [info] Checking master_ip_failover_script status:

Sun Apr 2023:10:012014- [info]  /usr/local/bin/master_ip_failover --command=status --ssh_user=root --orig_master_host=192.168.0.50--orig_master_ip=192.168.0.50--orig_master_port=3306

Sun Apr 2023:10:012014- [info]  OK.

Sun Apr 2023:10:012014- [warning] shutdown_script is not defined.

Sun Apr 2023:10:012014- [info] Got exit code0 (Not master dead).

MySQL Replication Health is OK.

img_51e409b11aa51c150090697429a953ed.gif

可以看见已经没有报错了。哈哈

/usr/local/bin/master_ip_failover添加或者修改的内容意思是当主库数据库发生故障时,会触发MHA切换,MHA Manager会停掉主库上的keepalived服务,触发虚拟ip漂移到备选从库,从而完成切换。当然可以在keepalived里面引入脚本,这个脚本监控mysql是否正常运行,如果不正常,则调用该脚本杀掉keepalived进程。

2.通过脚本的方式管理VIP。这里是修改/usr/local/bin/master_ip_failover,也可以使用其他的语言完成,比如php语言。使用php脚本编写的failover这里就不介绍了。修改完成后内容如下,而且如果使用脚本管理vip的话,需要手动在master服务器上绑定一个vip(发现修改修改对perl竟然有感觉了。难道我适合学Perl?^_^)

[root@192.168.0.50~]# /sbin/ifconfigeth1:1192.168.0.88/24

通过脚本来维护vip的测试我这里就不说明了,童鞋们自行测试,脚本如下(测试通过)

img_51e409b11aa51c150090697429a953ed.gif

#!/usr/bin/env perluse strict;usewarnings FATAL =>'all';useGetopt::Long;my (

    $command,$ssh_user,$orig_master_host,$orig_master_ip,$orig_master_port,$new_master_host,$new_master_ip,$new_master_port);my$vip='192.168.0.88/24';my$key='1';my$ssh_start_vip="/sbin/ifconfig eth1:$key $vip";my$ssh_stop_vip="/sbin/ifconfig eth1:$key down";

GetOptions(

    'command=s'=> \$command,'ssh_user=s'=> \$ssh_user,'orig_master_host=s'=> \$orig_master_host,'orig_master_ip=s'=> \$orig_master_ip,'orig_master_port=i'=> \$orig_master_port,'new_master_host=s'=> \$new_master_host,'new_master_ip=s'=> \$new_master_ip,'new_master_port=i'=> \$new_master_port,);exit&main();sub main {

    print"\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";

    if($commandeq"stop"||$commandeq"stopssh" ) {

        my$exit_code=1;

        eval {

            print"Disabling the VIP on old master: $orig_master_host \n";

            &stop_vip();

            $exit_code=0;

        };

        if ($@) {

            warn"Got Error: $@\n";

            exit$exit_code;

        }

        exit$exit_code;

    }

    elsif($commandeq"start" ) {

        my$exit_code=10;

        eval {

            print"Enabling the VIP - $vip on the new master - $new_master_host \n";

            &start_vip();

            $exit_code=0;

        };

        if ($@) {

            warn $@;

            exit$exit_code;

        }

        exit$exit_code;

    }

    elsif($commandeq"status" ) {

        print"Checking the Status of the script.. OK \n";

        exit0;

    }

    else {

        &usage();

        exit1;

    }

}sub start_vip() {

    `ssh $ssh_user\@$new_master_host\"$ssh_start_vip \"`;}sub stop_vip() {

return 0  unless  ($ssh_user);    `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;}sub usage {    print

"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";}

img_51e409b11aa51c150090697429a953ed.gif

为了防止脑裂发生,推荐生产环境采用脚本的方式来管理虚拟ip,而不是使用keepalived来完成。到此为止,基本MHA集群已经配置完毕。接下来就是实际的测试环节了。通过一些测试来看一下MHA到底是如何进行工作的。下面将从MHA自动failover,我们手动failover,在线切换三种方式来介绍MHA的工作情况。

一.自动Failover(必须先启动MHA Manager,否则无法自动切换,当然手动切换不需要开启MHA Manager监控。各位童鞋请参考前面启动MHA Manager)

测试环境再次贴一下,文章太长,自己都搞晕了。

角色                    ip地址          主机名          server_id              类型

Monitor host            192.168.0.20server01            -                  监控复制组

Master                  192.168.0.50server021                  写入

Candicate master        192.168.0.60server032                  读

Slave                  192.168.0.70server043读

自动failover模拟测试的操作步骤如下。

(1)使用sysbench生成测试数据(使用yum快速安装)

yuminstallsysbench -y

在主库(192.168.0.50)上进行sysbench数据生成,在sbtest库下生成sbtest表,共100W记录。

[root@192.168.0.50~]# sysbench --test=oltp --oltp-table-size=1000000--oltp-read-only=off --init-rng=on --num-threads=16--max-requests=0--oltp-dist-type=uniform --max-time=1800--mysql-user=root --mysql-socket=/tmp/mysql.sock --mysql-password=123456--db-driver=mysql --mysql-table-engine=innodb --oltp-test-mode=complex prepare

(2)停掉slave sql线程,模拟主从延时。(192.168.0.60)

mysql> stop slave io_thread;

Query OK, 0rows affected (0.08 sec)

mysql>

另外一台slave我们没有停止io线程,所以还在继续接收日志。

(3)模拟sysbench压力测试。

在主库上(192.168.0.50)进行压力测试,持续时间为3分钟,产生大量的binlog。

img_51e409b11aa51c150090697429a953ed.gif

[root@192.168.0.50~]# sysbench --test=oltp --oltp-table-size=1000000--oltp-read-only=off --init-rng=on --num-threads=16--max-requests=0--oltp-dist-type=uniform --max-time=180--mysql-user=root --mysql-socket=/tmp/mysql.sock --mysql-password=123456--db-driver=mysql --mysql-table-engine=innodb --oltp-test-mode=complex run

sysbench 0.4.12:  multi-threaded system evaluation benchmark

Running the test with following options:

Number of threads: 16Initializing random number generator from timer.

Doing OLTP test.

Running mixed OLTP test

Using Uniform distribution

Using "BEGIN"for starting transactions

Using auto_inc on the id column

Threads started!Time limit exceeded, exiting...

(lastmessage repeated15 times)

Done.

OLTP test statistics:

    queries performed:

        read:                            15092write:5390        other:                          2156        total:                          22638    transactions:                        1078(5.92 per sec.)

    deadlocks:                          0(0.00 per sec.)

    read/writerequests:20482(112.56 per sec.)

    other operations:                    2156(11.85 per sec.)

Test execution summary:

    total time:181.9728s

    total number of events:              1078    total timetaken by event execution:2910.4518    per-request statistics:

        min:                                934.29ms

        avg:                              2699.86ms

        max:                              7679.95ms

        approx.  95percentile:4441.47ms

Threads fairness:

    events (avg/stddev):67.3750/1.49    execution time(avg/stddev):181.9032/0.11

img_51e409b11aa51c150090697429a953ed.gif

(4)开启slave(192.168.0.60)上的IO线程,追赶落后于master的binlog。

mysql> start slave io_thread;   

Query OK, 0rows affected (0.00 sec)

mysql>

(5)杀掉主库mysql进程,模拟主库发生故障,进行自动failover操作。

[root@192.168.0.50~]# pkill -9mysqld

(6)查看MHA切换日志,了解整个切换过程,在192.168.0.20上查看日志:

 View Code

img_1c53668bcee393edac0d7b3b3daff1ae.gif

看到最后的Master failover to 192.168.0.60(192.168.0.60:3306) completed successfully.说明备选master现在已经上位了。

从上面的输出可以看出整个MHA的切换过程,共包括以下的步骤:

1.配置文件检查阶段,这个阶段会检查整个集群配置文件配置

2.宕机的master处理,这个阶段包括虚拟ip摘除操作,主机关机操作(这个我这里还没有实现,需要研究)

3.复制dead maste和最新slave相差的relay log,并保存到MHA Manger具体的目录下

4.识别含有最新更新的slave

5.应用从master保存的二进制日志事件(binlog events)

6.提升一个slave为新的master进行复制

7.使其他的slave连接新的master进行复制

最后启动MHA Manger监控,查看集群里面现在谁是master(在切换后监控就停止了。。。还有东西没搞对?)后来在官方网站看到这句话就明白了 。

Running MHA Manager from daemontools

Currently MHA Manager process does not run as a daemon. If failover completed successfully or the master process was killed by accident, the manager stops working. To run as a daemon, daemontool. or any external daemon program can be used. Here is an example to run from daemontools.

[root@192.168.0.20~]# masterha_check_status --conf=/etc/masterha/app1.cnf

app1 (pid:23971) is running(0:PING_OK), master:192.168.0.60[root@192.168.0.20~]#

二.手动Failover(MHA Manager必须没有运行)

手动failover,这种场景意味着在业务上没有启用MHA自动切换功能,当主服务器故障时,人工手动调用MHA来进行故障切换操作,具体命令如下:

注意:如果,MHA manager检测到没有dead的server,将报错,并结束failover: 

Mon Apr2121:23:332014- [info] Dead Servers:

Mon Apr 2121:23:332014- [error][/usr/local/share/perl5/MHA/MasterFailover.pm, ln181] None of server is dead. Stop failover.

Mon Apr 2121:23:332014- [error][/usr/local/share/perl5/MHA/ManagerUtil.pm, ln178] Got ERROR:  at /usr/local/bin/masterha_master_switch line53

进行手动切换命令如下:

[root@192.168.0.20~]# masterha_master_switch --master_state=dead --conf=/etc/masterha/app1.cnf --dead_master_host=192.168.0.50--dead_master_port=3306--new_master_host=192.168.0.60--new_master_port=3306--ignore_last_failover

输出的信息会询问你是否进行切换:

 View Code

img_1c53668bcee393edac0d7b3b3daff1ae.gif

上述模拟了master宕机的情况下手动把192.168.0.60提升为主库的操作过程。

三.在线进行切换

 在许多情况下, 需要将现有的主服务器迁移到另外一台服务器上。 比如主服务器硬件故障,RAID 控制卡需要重建,将主服务器移到性能更好的服务器上等等。维护主服务器引起性能下降, 导致停机时间至少无法写入数据。 另外, 阻塞或杀掉当前运行的会话会导致主主之间数据不一致的问题发生。 MHA 提供快速切换和优雅的阻塞写入,这个切换过程只需要 0.5-2s 的时间,这段时间内数据是无法写入的。在很多情况下,0.5-2s 的阻塞写入是可以接受的。因此切换主服务器不需要计划分配维护时间窗口。

MHA在线切换的大概过程:

1.检测复制设置和确定当前主服务器

2.确定新的主服务器

3.阻塞写入到当前主服务器

4.等待所有从服务器赶上复制

5.授予写入到新的主服务器

6.重新设置从服务器

注意,在线切换的时候应用架构需要考虑以下两个问题:

1.自动识别master和slave的问题(master的机器可能会切换),如果采用了vip的方式,基本可以解决这个问题。

2.负载均衡的问题(可以定义大概的读写比例,每台机器可承担的负载比例,当有机器离开集群时,需要考虑这个问题)

为了保证数据完全一致性,在最快的时间内完成切换,MHA的在线切换必须满足以下条件才会切换成功,否则会切换失败。

1.所有slave的IO线程都在运行

2.所有slave的SQL线程都在运行

3.所有的show slave status的输出中Seconds_Behind_Master参数小于或者等于running_updates_limit秒,如果在切换过程中不指定running_updates_limit,那么默认情况下running_updates_limit为1秒。

4.在master端,通过show processlist输出,没有一个更新花费的时间大于running_updates_limit秒。

在线切换步骤如下:

首先,停掉MHA监控:

[root@192.168.0.20~]# masterha_stop --conf=/etc/masterha/app1.cnf

其次,进行在线切换操作(模拟在线切换主库操作,原主库192.168.0.50变为slave,192.168.0.60提升为新的主库)

[root@192.168.0.20~]# masterha_master_switch --conf=/etc/masterha/app1.cnf --master_state=alive --new_master_host=192.168.0.60--new_master_port=3306--orig_master_is_new_slave --running_updates_limit=10000

最后查看日志,了解切换过程,输出信息如下:

 View Code

img_1c53668bcee393edac0d7b3b3daff1ae.gif

其中参数的意思:

--orig_master_is_new_slave 切换时加上此参数是将原 master 变为 slave 节点,如果不加此参数,原来的 master 将不启动

--running_updates_limit=10000,故障切换时,候选master 如果有延迟的话, mha 切换不能成功,加上此参数表示延迟在此时间范围内都可切换(单位为s),但是切换的时间长短是由recover 时relay 日志的大小决定 

注意:由于在线进行切换需要调用到master_ip_online_change这个脚本,但是由于该脚本不完整,需要自己进行相应的修改,我google到后发现还是有问题,脚本中new_master_password这个变量获取不到,导致在线切换失败,所以进行了相关的硬编码,直接把mysql的root用户密码赋值给变量new_master_password,如果有哪位大牛知道原因,请指点指点。这个脚本还可以管理vip。下面贴出脚本:

 View Code

img_1c53668bcee393edac0d7b3b3daff1ae.gif

四.修复宕机的Master 

通常情况下自动切换以后,原master可能已经废弃掉,待原master主机修复后,如果数据完整的情况下,可能想把原来master重新作为新主库的slave,这时我们可以借助当时自动切换时刻的MHA日志来完成对原master的修复。下面是提取相关日志的命令:

[root@192.168.0.20app1]#grep-i"All other slaves should start" manager.log

Mon Apr 2122:28:332014- [info]  All other slaves should start replication from here. Statement should be: CHANGE MASTER TO MASTER_HOST='192.168.0.60', MASTER_PORT=3306, MASTER_LOG_FILE='mysql-bin.000022', MASTER_LOG_POS=506716, MASTER_USER='repl', MASTER_PASSWORD='xxx';

[root@192.168.0.20app1]#

获取上述信息以后,就可以直接在修复后的master上执行change master to相关操作,重新作为从库了。

最后补充一下邮件发送脚本send_report ,这个脚本在询问一位朋友后可以使用,如下:

 View Code

img_1c53668bcee393edac0d7b3b3daff1ae.gif

最后切换以后发送告警的邮件示例,注意,这个是我后续的测试,和上面环境出现的ip不一致不要在意。

img_9dea85d25b844da3d573a111a11d2a5a.png


总结:

目前高可用方案可以一定程度上实现数据库的高可用,比如前面文章介绍的MMMheartbeat+drbdCluster等。还有percona的Galera Cluster等。这些高可用软件各有优劣。在进行高可用方案选择时,主要是看业务还有对数据一致性方面的要求。最后出于对数据库的高可用和数据一致性的要求,推荐使用MHA架构。


 参考资料:

http://huoding.com/2011/12/18/139

http://blog.itpub.net/88305/viewspace-730135/

https://code.google.com/p/mysql-master-ha/wiki/TableOfContents?tm=6(自备梯子)

http://k-1-ne-jp.blogspot.com/2013/02/masterhamasterswitch_13.html(自备梯子)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值