mysql高可用架构

本实验具体验证思路

环境说明:

本次搭建mysql高可用架构,使用MHA+mysql实现。

一台云服务器:腾讯云4C16G一台,作为manager节点 10.0.24.11

docker容器:在云服务器安装,启动3个centos容器,每个centos容器单独安装mysql来模拟三台不同机器

1、启动三台mysql数据库

为了方便,使用centos镜像,之后安装手动安装mysql后,重新打包作为容器基础镜像(这里不再描述)

docker run -itd --name master --privileged centos-mysql:V1 init

docker run -itd --name slave01 --privileged centos-mysql:V1 init

docker run -itd --name slave02 --privileged centos-mysql:V1 init

2、关闭防火墙

[root@VM-24-11-centos ~]# systemctl stop firewalld

[root@VM-24-11-centos ~]# systemctl disable firewalld

[root@VM-24-11-centos ~]# setenforce 0

3、编辑master的my.cnf文件

[root@VM-24-11-centos ~]# docker cp master:/etc/mysql/my.cnf ./

server-id = 11 #三台服务器的 server-id不能一样

log_bin = master-bin

log-slave-updates = true

[root@VM-24-11-centos ~]# docker cp my.cnf master:/etc/mysql/

4、编辑slave01的my.cnf文件

[root@VM-24-11-centos ~]# docker cp slave01:/etc/mysql/my.cnf ./

server-id = 22 #三台服务器的 server-id 不能一样

log_bin = master-bin

relay-log = relay-log-bin

relay-log-index = slave-relay-bin.index

[root@VM-24-11-centos ~]# docker cp my.cnf slave01:/etc/mysql/

5、编辑slave02的my.cnf文件

[root@VM-24-11-centos ~]# docker cp slave02:/etc/mysql/my.cnf ./

server-id = 33 #三台服务器的 server-id 不能一样

log_bin = master-bin

relay-log = relay-log-bin

relay-log-index = slave-relay-bin.index

[root@VM-24-11-centos ~]# docker cp my.cnf slave02:/etc/mysql/

6、重启mysql

docker restart $(docker ps -q)

7、配置mysql数据库账号信息(三台机器都执行)

这里使用容器,则需要查看容器ip地址

docker inspect --format='{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}'  master

#####三个数据库节点执行

##### #登录数据库

create user myslave@'172.17.0.%' identified by 'egova'; grant all privileges on *.* to myslave@'172.17.0.%' with grant option;

#从数据库同步使用

create user mha@'172.17.0.%' identified by 'egova'; grant all privileges on *.* to mha@'172.17.0.%' with grant option;

#manager 使用 'mha'@'master-hostname(5f44f9809562)

#防止从库通过主机名连接不上主库

create user mha@'74dedc838339' identified by 'egova'; grant all privileges on *.* to mha@'74dedc838339' with grant option;

#防止从库通过主机名连接不上主库

create user mha@'eba081160166' identified by 'egova'; grant all privileges on *.* to mha@'eba081160166' with grant option;

create user mha@'f7340f5a6d32' identified by 'egova'; grant all privileges on *.* to mha@'f7340f5a6d32' with grant option;

flush privileges;

8、master节点查看同步点

show master status;

9、从节点同步

change master to master_host='172.17.0.2',master_user='myslave',master_password='egova', master_log_file='binlog.000005',master_log_pos=3665; start slave;

10、查看状态

show slave status\G

一直处于Slave_IO_Running: Connecting,报错Last_IO_Error: error connecting to master 'myslave@172.17.0.2:3306' - retry-time: 60 retries: 7 message: Authentication plugin 'caching_sha2_password' reported error: Authentication requires secure connection.

处理方式   master节点执行

ALTER USER 'myslave'@'172.17.0.%' IDENTIFIED WITH mysql_native_password BY 'egova'; 然后stop slave;start slave;

11、两个从库必须设置为只读模式

set global read_only=1;

12、验证主从

create database test_db; use test_db; create table test(id int); insert into test(id) values (1);

13、所有服务器安装 MHA 软件

##在这之前需要先给容器安装相关软件 #

#执行apt-get update报错the public key is not available: NO_PUBKEY 467B942D3A79BD29

root@a968378b506e:/# gpg --keyserver keyserver.ubuntu.com --recv-keys 467B942D3A79BD29 root@a968378b506e:/# gpg --export --armor 467B942D3A79BD29 | apt-key add - root@a968378b506e:/# apt-get update

##安装sshd

root@a968378b506e:/# apt-get install -y openssh-server --fix-missing

[root@VM-24-11-centos ~]# docker cp sshd_config slave02:/etc/ssh(sed -i 's/#PermitRootLogin prohibit-password/PermitRootLogin yes/' /etc/ssh/sshd_config)

root@a968378b506e:/# mkdir -p /run/sshd

root@a968378b506e:/# /usr/sbin/sshd

##然后做秘钥登录,宿主机与所有容器

所有服务器报错容器执行如下

root@9c8331e0221c:~/.ssh#apt-get install yum -y

root@9c8331e0221c:~/.ssh# apt-get install yum-utils -y

root@a968378b506e:~/.ssh# yum-config-manager --enable epel root@a968378b506e:/etc/yum.repos.d# apt-get install wget --fix-missing -y root@9c8331e0221c:~/.ssh# mkdir -p /etc/yum.repos.d && cd /etc/yum.repos.d && wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

yum install epel-release --nogpgcheck -y

yum install -y perl-DBD-MySQL \

perl-Config-Tiny \

perl-Log-Dispatch \

perl-Parallel-ForkManager \

perl-ExtUtils-CBuilder \

perl-ExtUtils-MakeMaker \

perl-CPAN

14、安装 MHA 软件包

##在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,因为 manager 依赖 node 组件

wget https://github.com/yoshinorim/mha4mysql-node/releases/download/v0.58/mha4mysql-node-0.58.tar.gz

wget https://github.com/yoshinorim/mha4mysql-manager/releases/download/v0.58/mha4mysql-manager-0.58.tar.gz

tar -zxvf mha4mysql-node-0.58.tar.gz

root@9c8331e0221c:~/mha4mysql-node-0.58# cpan inc::Module::Install

root@9c8331e0221c:/# apt-get install make

root@9c8331e0221c:/#perl Makefile.PL -y

root@9c8331e0221c:/#make&&make install

root@9c8331e0221c:/#tar -zxvf mha4mysql-manager-0.58.tar.gz

root@9c8331e0221c:/#perl Makefile.PL

root@9c8331e0221c:/#make&&make install

安装之后的工具在/usr/local/bin下

15、在所有服务器上配置无密码认证

在 manager 节点上配置到所有数据库节点的无密码认证

ssh-keygen -t rsa #一路按回车键

ssh-copy-id 192.168.180.130

ssh-copy-id 192.168.180.131

ssh-copy-id 192.168.180.132

在 mysql1 上配置到数据库节点 mysql2 和 mysql3 的无密码认证

ssh-keygen -t rsa

ssh-copy-id 192.168.180.131

ssh-copy-id 192.168.180.132

在 mysql2 上配置到数据库节点 mysql1 和 mysql3 的无密码认证

ssh-keygen -t rsa

ssh-copy-id 192.168.180.130

ssh-copy-id 192.168.180.132

在 mysql3 上配置到数据库节点 mysql1 和 mysql2 的无密码认证

ssh-keygen -t rsa

ssh-copy-id 192.168.180.130

ssh-copy-id 192.168.180.131

16、在 manager 节点上配置 MHA

cp -rp mha4mysql-manager-0.58/samples/scripts /usr/local/bin/

复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换

cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin

修改内容如下:(删除原有内容,直接复制并修改vip相关参数)

vim /usr/local/bin/master_ip_failover

#!/usr/bin/env perl
use strict;
use warnings FATAL =>'all';
use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
#############################添加内容部分#########################################
my $vip ='172.17.0.200'; #指定vip的地址
my $brdc ='172.17.0.255'; #指定vip的广播地址
my $ifdev ='ens33'; #指定vip绑定的网卡
my $key ='1'; #指定vip绑定的虚拟网卡序列号
my $ssh_start_vip ="/sbin/ifconfig ens33:$key $vip"; #代表此变量值为ifconfig ens33:1192.168.180.200
my $ssh_stop_vip ="/sbin/ifconfig ens33:$key down"; #代表此变量值为ifconfig ens33:1192.168.180.200 down
my $exit_code =0; #指定退出状态码为0
#my $ssh_start_vip ="/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip ="/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
##################################################################################
GetOptions(
'command=s'=> \$command,
'ssh_user=s'=> \$ssh_user,
'orig_master_host=s'=> \$orig_master_host,
'orig_master_ip=s'=> \$orig_master_ip,
'orig_master_port=i'=> \$orig_master_port,
'new_master_host=s'=> \$new_master_host,
'new_master_ip=s'=> \$new_master_ip,
'new_master_port=i'=> \$new_master_port,
);
exit &main();
sub main {
print"\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if( $command eq "stop"|| $command eq "stopssh"){
my $exit_code =1;
eval {
print"Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code =0;
};
if($@){
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start"){
my $exit_code =10;
eval {
print"Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code =0;
};
if($@){
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status"){
print"Checking the Status of the script.. OK \n";
exit 0;
}
else{
&usage();
exit 1;
}
}
sub start_vip(){
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
## A simple system call that disable the VIP on the old_master
sub stop_vip(){
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
这个复制上去开头会有#号,用vim的末行模式 输入这条命令去掉
:2,87 s/^#//g

这个复制上去开头会有#号,用vim的末行模式 输入这条命令去掉 :2,87 s/^#//g

创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器

mkdir /etc/masterha

cp mha4mysql-manager-0.58/samples/conf/app1.cnf /etc/masterha

vim /etc/masterha/app1.cnf 

[server default]
manager_log=/var/log/masterha/app1/manager.log      #manager日志
manager_workdir=/var/log/masterha/app1.log        #manager工作目录
master_binlog_dir=/usr/local/mysql/data/         #master保存binlog的位置,这里的路径要与master里配置的binlog的路径一致,以便MHA能找到
master_ip_failover_script=/usr/local/bin/master_ip_failover  #设置自动failover时候的切换脚本,也就是上面的那个脚本
master_ip_online_change_script=/usr/local/bin/master_ip_online_change  #设置手动切换时候的切换脚本
password=manager #设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码
ping_interval=1 #设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行failover
remote_workdir=/tmp #设置远端mysql在发生切换时binlog的保存位置
repl_password=123456 #设置复制用户的密码
repl_user=myslave #设置复制用户的用户
report_script=/usr/local/send_report     #设置发生切换后发送的报警的脚本
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.180.131-s 192.168.180.132 #指定检查的从服务器IP地址
shutdown_script="" #设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机防止发生脑裂,这里没有使用)
ssh_user=root #设置ssh的登录用户名
user=mha #设置监控用户root
[server1]
hostname=172.17.0.2  #master节点
port=3306
[server2]
hostname=172.17.0.3   #slave01节点
port=3306
candidate_master=1
#设置为候选master,设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个主库不是集群中最新的slave
check_repl_delay=0
#默认情况下如果一个slave落后master 超过100M的relay logs的话,MHA将不会选择该slave作为一个新的master, 因为对于这个slave的恢复需要花费很长时间;通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
[server3]
hostname=172.17.0.4  #slave02节点
port=3306

17、验证是否安装成功

第一次配置需要在 Master 节点上手动开启虚拟IP

/sbin/ifconfig eth0:1 172.10.0.200.200/24

1)在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully,如下所示。

2)在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。

masterha_check_repl -conf=/etc/masterha/app1.cnf检测失败,报错1

master执行成如下截图

ALTER USER 'mha'@'172.17.0.%' IDENTIFIED WITH mysql_native_password BY 'egova'; FLUSH PRIVILEGES;

ALTER USER 'mha'@'74dedc838339' IDENTIFIED WITH mysql_native_password BY 'egova'; FLUSH PRIVILEGES;

ALTER USER 'mha'@'eba081160166' IDENTIFIED WITH mysql_native_password BY 'egova'; FLUSH PRIVILEGES;

ALTER USER 'mha'@'f7340f5a6d32' IDENTIFIED WITH mysql_native_password BY 'egova'; FLUSH PRIVILEGES;

masterha_check_repl -conf=/etc/masterha/app1.cnf  检测失败,报错2

ln -s /usr/local/mysql/bin/mysqlbinlog /usr/local/bin/mysqlbinlog

ln -s /usr/local/mysql/bin/mysql /usr/local/bin/mysql

执行成功截图如下

18、在 manager 节点上启动 MHA,manager节点执行

nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover /var/log/masterha/app1/manager.log 2>&1&

查看 MHA 状态,可以看到当前的 master 是 Mysql1 节点

masterha_check_status --conf=/etc/masterha/app1.cnf(cat /var/log/masterha/app1/manager.log | grep "current master")

查看 Mysql1 的 VIP 地址 192.168.80.200 是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。(master节点执行)

19、验证vip的mysql服务

无法连接vip,处理

修复:

master重新执行网卡添加 ip addr add 172.17.0.200/24 dev eth0

修改 vim /usr/local/bin/master_ip_failover

重启MHA后端口通了,但是无法使用root登录

修复

create user root@'gateway' identified by 'egova';

grant all privileges on *.* to root@'gateway' with grant option;

ALTER USER root@'gateway' IDENTIFIED WITH mysql_native_password BY 'egova';

FLUSH PRIVILEGES;

登录验证成功

验证数据写入,vip写入、单接点查询

create table test(id int);

insert into test(id) values (1);

20、若要关闭 manager 服务

masterha_stop --conf=/etc/masterha/app1.cnf

故障模拟

一、单节点宕机实验

1、查看日志

tail -f /var/log/masterha/app1/manager.log

2、停止master制造故障

systemctl stop mysql 或 pkill -9 mysql

可以看到master已经变成slave01(172.17.0.3)上,slave01上继续查看vip

查看masterha_check_status --conf=/etc/masterha/app1.cnf状态

没运行,应该是主节点宕机之后,这个检查停掉了,需要手动重启一下MHA

nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover /var/log/masterha/app1/manager.log 2>&1&

故障切换备选主库的算法:

1.一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。

2.数据一致的情况下,按照配置文件顺序,选择备选主库。

3.设定有权重(candidate_master=1),按照权重强制指定备选主。

(1)默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。

(2)如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。

3、恢复

systemctl restart mysql

在现主库服务器slave01上查看二进制文件和同步点

show master status;

在原主库服务器 master 执行同步操作

change master to master_host='172.17.0.3',master_user='myslave',master_password='egova',master_log_file='binlog.000007',master_log_pos=3588;

start slave;

show slave status\G;

set global read_only=1;

在 manager 节点上修改配置文件app1.cnf(再把这个记录添加进去,因为它检测掉失效时候会自动消失)

secondary_check_script=/usr/local/bin/masterha_secondary_check -s 172.17.0.2-s 172.17.0.4

[server1]
hostname=172.17.0.3  #slave01
port=3306
[server2]
candidate_master=1
check_repl_delay=0
hostname=172.17.0.2  #master
port=3306
[server3]
hostname=172.17.0.4  #slave02
port=3306

重启MHA,查看日志检查结果

tail -f /var/log/masterha/app1/manager.log

至此恢复成功!

4、验证数据写入

insert into wangjinxu.test(id) values (2); select * from wangjinxu.test;

二、单节点时间与其他节点差异过大实验

因为我使用docker容器启动,这里修改单节点的时间之后,所有节点时间都一起改变,无法验证,需要找其他云服务器验证

三、单节点宕机后,其他节点有数据写入后宕机节点数据恢复实验

停掉slave01(现主节点)mysql服务

mysql -h 172.17.0.200 -uroot -pegova

添加数据,从master与slave02查看,数据成功写入 启动slave01的mysql服务,必须要指定master,所以只能全量还原slave01上的数据,然后执行如下:

change master to master_host='172.17.0.2',master_user='myslave',master_password='egova',master_log_file='binlog.000005',master_log_pos=4963; start slave; show slave status\G; set global read_only=1;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值