实验:MHA高可用
思路:1.开启4台机器 192.168.100.101 master
192.168.100.102 slave1
192.168.100.103 slave2
192.168.100.104 manager
2.在4台机器上配置SSH免密登录,解决依赖关系
3.在101上 安装MHA manager
在 102 103 104 上 配置主从
4.开始配置MHA,然后检查ssh配置,MHA 监控配置是否成功
5. 添加VIP地址 开启监控 测试结果
步骤:
一。
1.设置四台主机的SSH免密登录:
ssh-keygen -t rsa ------------>>>>>> 创建密钥对
设置node节点每台都设置,把自己也弄为节点
ssh-copy-id 192.168.100.101
ssh-copy-id 192.168.100.102
ssh-copy-id 192.168.100.103
ssh-copy-id 192.168.100.104
2.在101上放入 mha4mysql-node-0.57-0.el7.noarc.rpm安装包
102上 mha4mysql-node-0.57-0.el7.noarch.rpm
103上 mha4mysql-node-0.57-0.el7.noarch.rpm
104上 mha4mysql-manager-0.57-0.el7.noarch.rpm mha4mysql-node-0.57-0.el7.noarch.rpm mhapath.tar.gz 安装包
在manager(104)上配置额外依赖仓库源
[root@manager~]# vim /etc/yum.repos.d/mhapath.repo
[mha]
name=mhapath
baseurl=file:///root/mhapath
enabled=1
gpgcheck=0
配置完成后 解压 mhapath.tar.gz ----------->>>>>>>这个包是解决添加的yum仓库依赖关系的
[root@manager ~]# tar -zxvf mhapath.tar.gz
并将创建的 仓库源 和 依赖关系包 拷贝到其他节点上
[root@manager ~]# scp -r /etc/yum.repos.d/* 192.168.100.101:/etc/yum.repos.d/
[root@manager ~]# scp -r /etc/yum.repos.d/* 192.168.100.102:/etc/yum.repos.d/
[root@manager ~]# scp -r /etc/yum.repos.d/* 192.168.100.103:/etc/yum.repos.d/
[root@manager ~]# scp -r mhapath 192.168.100.101:/root
[root@manager ~]# scp -r mhapath 192.168.100.102:/root
[root@manager ~]# scp -r mhapath 192.168.100.103:/root
3. 各个node节点安装软件依赖和软件包(4台主机做同样的操作)
[root@manager ~]# yum -y install perl-DBD-MySQL perl-Config-Tiny perl-Log-Dispatch perl-Parallel-ForkManager --skip-broken --nogpgcheck
[root@manager ~]# rpm -ivh mha4mysql-node-0.57-0.el7.noarch.rpm
二。 安装MHA Manager
1、 安装MHA Manger依赖的perl模块
[root@manager ~]# yum install perl-DBD-MySQL perl-Config-Tiny perl-Log-Dispatch perl-Parallel-ForkManager perl-Time-HiRes perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker perl-CPAN -y
2. 安装MHA Manager软件包:
[root@manager ~]# rpm -ivh mha4mysql-manager-0.57-0.el7.noarch.rpm
三。搭建主从复制:
1.在101(master)上
配置my.cnf
[root@master ~]# vim /etc/my.cnf
log-bin=mysql-bin-master #启用二进制日志
server-id=1 #本机数据库ID 标示
[root@master ~]# systemctl restart mysqld #重启服务
创建需要同步的数据库:
[root@master ~]# mysql -uroot -p123456
mysql> create database HA;
mysql> use HA;
mysql> create table test(id int,name varchar(20));
授权:
repl用户用来主从同步,root用户给MHA使用
mysql> grant replication slave on . to repl@‘192.168.100.%’ identified by ‘123456’;
mysql> grant all privileges on . to ‘root’@‘192.168.100.%’ identified by ‘123456’;
mysql> flush privileges; #刷新权限
2.在slave1(102)上配置从服务:
配置my.cnf:
[root@slave1 ~]# vim /etc/my.cnf
log-bin=mysql-slave1 #启用二进制日志
server-id=2 #本机数据库ID 标示
log_slave_updates=1 #只有开启log_slave_updates,从库binlog才会记录主库同步的操作日志
[root@slave1 ~]# systemctl restart mysqld #重启服务器
授权
[root@slave1 ~]# mysql -uroot -p123456
mysql> grant replication slave on . to ‘repl’@‘192.168.1.%’ identified by ‘123456’;
mysql> grant all privileges on . to ‘root’@‘192.168.1.%’ identified by ‘123456’;
进入MySQL配置slave 建立主从关系
mysql> stop slave;
mysql> change master to master_host=‘192.168.100.101’,master_user=‘repl’,master_password=‘123456’;
mysql> start slave;
mysql> show slave status\G
-
在slave2(103)配置从服务: 配置my.cnf:
[root@slave2 ~]# vim /etc/my.cnf
log-bin=mysql-slave1 #启用二进制日志
server-id=3 #本机数据库ID 标示
log_slave_updates=1 #只有开启log_slave_updates,从库binlog才会记录主库同步的操作日志
[root@slave2 ~]# systemctl restart mysqld #重启服务
授权:
[root@slave2 ~]# mysql -uroot -p123456
mysql> grant replication slave on . to ‘repl’@‘192.168.1.%’ identified by ‘123456’;
mysql> grant all privileges on . to ‘root’@‘192.168.1.%’ identified by ‘123456’;
建立主从关系:
mysql> stop slave;
mysql> change master to master_host=‘192.168.100.101’,master_user=‘repl’,master_password=‘123456’;
mysql> start slave;
mysql> show slave status\G
两台slave服务器设置read_only:
从库对外提供读服务,只所以没有写进配置文件,是因为slave随时会提升为master
[root@cong12 ~]# mysql -uroot -p123456 -e ‘set global read_only=1’
[root@cong13 ~]# mysql -uroot -p123456 -e ‘set global read_only=1’
到这里整个集群环境已经搭建完毕,剩下的就是配置MHA软件了。
四。 配置MHA
1、 创建MHA的工作目录,并且创建相关配置文件
[root@manager ~]# mkdir -p /etc/masterha
[root@manager~]# mkdir -p /var/log/masterha/app1
[root@manager ~]# vim /etc/masterha/appl.cnf
[server default]
manager_workdir=/var/log/masterha/app1
manager_log=/var/log/masterha/app1/manager.log
master_binlog_dir=/data/mysql/data
user=root
password=123456
ping_interval=1
remote_workdir=/tmp
repl_user=repl
repl_password=123456
ssh_user=root
[server1]
hostname=192.168.100.101
port=3306
[server2]
hostname=192.168.100.102
port=3306
candidate_master=1
check_repl_delay=0
[server3]
hostname=192.168.100.103
port=3306
设置relay log的清除方式(在每个slave节点上):
[root@cong12 ~]# mysql -uroot -p123456 -e ‘set global relay_log_purge=0’
[root@cong13 ~]# mysql -uroot -p123456 -e ‘set global relay_log_purge=0’
五。 1------检查SSH配置
检查MHA Manger到所有MHA Node的SSH连接状态:
[root@manager~]# masterha_check_ssh --conf=/etc/masterha/app1.cnf
检查整个复制环境状况
[root@manager ~]# masterha_check_repl --conf=/etc/masterha/app1.cnf
——————————
如果报错,需要删除之前健康检查的文件,重新检查:
[root@manager~]# rm -rf /var/log/masterha/app1/app1.master_status.health
重新检查:
[root@manager ~]# masterha_check_repl --conf=/etc/masterha/app1.cnf
2 ---------- 检查MHA Manager的状态:
[root@manager ~]# masterha_check_status --conf=/etc/masterha/app1.cnf
app1 is stopped(2:NOT_RUNNING).
注意:如果正常,会显示"PING_OK",否则会显示"NOT_RUNNING",这代表MHA监控没有开启。
------------------- 开启MHA Manager监控
[root@manager ~]# nohup masterha_manager --conf=/etc/masterha/app1.cnf
–remove_dead_master_conf --ignore_last_failover < /dev/null >
/var/log/masterha/app1/manager.log 2>&1 &
-------------------- 再次查看MHA Manager监控是否正常
[root@manager ~]# masterha_check_status --conf=/etc/masterha/app1.cnf
app1 (pid:7261) is running(0:PING_OK), master:192.168.100.101
可以看见已经在监控了,而且master的主机为192.168.100.101
-------------------- 查看启动日志
[root@manager~]# tail -n20 /var/log/masterha/app1/manager.log
如需关闭MHA Manage监控,则
关闭很简单,使用masterha_stop命令完成
[root@manager ~]# masterha_stop --conf=/etc/masterha/app1.cnf
六。 模拟故障
1.、 开启监控
[root@manager ~]# nohup masterha_manager --conf=/etc/masterha/app1.cnf
–remove_dead_master_conf --ignore_last_failover < /dev/null >
/var/log/masterha/app1/manager.log 2>&1 &
********* 打开新窗口观察日志
[root@manager ~]# tail -f /var/log/masterha/app1/manager.log
**********模拟主库挂掉
[root@master ~]# systemctl stop mysqld
********** 看日志是否切换master成功
可以看到master已经切换到192.168.100.102
******** 登陆从slave2(103)查看show slave status\G是否成功切换
[root@slave2 ~]# mysql -uroot -p123456
mysql> show slave status\G
恢复master(101)为主服务器 则:
1.启动master上的mysql,进入数据库授权:
mysql> stop slave;
mysql> change master to master_host=‘192.168.100.102’,master_user=‘repl’,master_password=‘123456’;
mysql> start slave;
mysql> show slave status\G
-
进入manager(104): [root@manager ~]# vim /etc/masterha/appl.cnf
修改为---------: [server1]
hostname=192.168.100.102
port=3306[server2] hostname=192.168.100.101 port=3306 candidate_master=1 check_repl_delay=0
3.停止102mysql
4 开启监控
[root@manager ~]# nohup masterha_manager --conf=/etc/masterha/app1.cnf
–remove_dead_master_conf --ignore_last_failover < /dev/null >
/var/log/masterha/app1/manager.log 2>&1 &
********* 打开新窗口观察日志
[root@manager ~]# tail -f /var/log/masterha/app1/manager.log
5 .恢复101为主服务器成功
6.接着将102MySQL开启并配置:
mysql> stop slave;
mysql> change master to master_host=‘192.168.100.101’,master_user=‘repl’,master_password=‘123456’;
mysql> start slave;
mysql> show slave status\G
-
进入manager(104): [root@manager ~]# vim /etc/masterha/appl.cnf
修改为---------: [server1]
hostname=192.168.100.101
port=3306[server2] hostname=192.168.100.102 port=3306 candidate_master=1 check_repl_delay=0
实验完成
实验二: 在上述环境中(101已经恢复为主,更改的配置文件已经恢复大的情况下), 添加VIP
配置VIP配合MHA使用
-
在mysql主上(101)配置VIP
[root@master~]# ifconfig ens33:1 192.168.100.88 netmask 255.255.255.0 up
[root@master ~]# ifconfig -
在主配置文件里开启脚本
[root@manager ~]# vim /etc/masterha/app1.cnf
随便添加
master_ip_failover_script=/usr/bin/master_ip_failover #开启脚本
-
编写脚本
[root@manager ~]# vim /usr/bin/master_ip_failover
#!/usr/bin/env perl
use strict;
use warnings FATAL => ‘all’;
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
my $vip = ‘192.168.100.88/24’;
my $key = ‘1’;
my
s
s
h
s
t
a
r
t
v
i
p
=
"
/
s
b
i
n
/
i
f
c
o
n
f
i
g
e
n
s
33
:
ssh_start_vip = "/sbin/ifconfig ens33:
sshstartvip="/sbin/ifconfigens33:key $vip";
my
s
s
h
s
t
o
p
v
i
p
=
"
/
s
b
i
n
/
i
f
c
o
n
f
i
g
e
n
s
33
:
ssh_stop_vip = "/sbin/ifconfig ens33:
sshstopvip="/sbin/ifconfigens33:key down";
GetOptions(
‘command=s’ => $command,
‘ssh_user=s’ => $ssh_user,
‘orig_master_host=s’ => $orig_master_host,
‘orig_master_ip=s’ => $orig_master_ip,
‘orig_master_port=i’ => $orig_master_port,
‘new_master_host=s’ => $new_master_host,
‘new_master_ip=s’ => $new_master_ip,
‘new_master_port=i’ => $new_master_port,
);
exit &main();
sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
#`ssh $ssh_user\@cluster1 \" $ssh_start_vip \"`;
exit 0;
}
else {
&usage();
exit 1;
}
}
A simple system call that enable the VIP on the new master
sub start_vip() {
ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"
;
}
A simple system call that disable the VIP on the old_master
sub stop_vip() {
ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"
;
}
sub usage {
print
“Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n”;
}
- 给脚本添加可执行权限
[root@manager~]# chmod +x /usr/bin/master_ip_failover -
检查SSH配置
检查MHA Manger到所有MHA Node的SSH连接状态:
[root@manager ~]# masterha_check_ssh --conf=/etc/masterha/app1.cnf
6. 检查整个集群复制环境状况
需删除之前健康检查的文件,防止检测不准确。
[root@manager ~]# rm -rf /var/log/masterha/app1/app1.master_status.health
[root@manager~]# masterha_check_repl --conf=/etc/masterha/app1.cnf
如果还是报错再删除一边健康检查文件
7、 开启MHA Manager监控
[root@manager ~]# nohup masterha_manager --conf=/etc/masterha/app1.cnf
–remove_dead_master_conf --ignore_last_failover < /dev/null >
/var/log/masterha/app1/manager.log 2>&1 &
[1] 7418
-
查看MHA Manager监控是否正常
[root@manager ~]# masterha_check_status --conf=/etc/masterha/app1.cnf
app1 (pid:7418) is running(0:PING_OK), master:192.168.100.101 -
查看启动日志
[root@cong10 ~]# tail -n20 /var/log/masterha/app1/manager.log -
模拟主库挂掉
[root@master ~]# systemctl stop mysqld
看日志是否切换master成功
可以看到master已经切换到192.168.100.102查看VIP是否漂移过来
[root@cong11 ~]# ifconfig
实验结束。