MySQL(MHA高可用集群)

10 篇文章 0 订阅

目录

一、MHA

1、简介

2、MHA特点

3、半同步、全同步及异步

 二、MHA实验

(1)、 实验环境

(2) 配置MHA

(3)配置无密码认证

(4) 配置MHA

(5)测试

1、测试无密码认证,如果正常会输出successfully

2、测试主从复制

 3、测试VIP地址是否能够漂移


一、MHA

1、简介

MHA目前在MySQL高可用方面是一个相对成熟的解决方案,但是在搭建的过程中容易报错,且MHA的构建综合了主从复制,所以MHA安装时需要严格执行每一个部署

⭐MHA(Master High Availability)目前在MySQL高可用方面是一个相对成熟的解决方案,MHA

⭐是由日本人开发,是一套优秀的MySQL故障切换和主从复制的高可用软件在MySQL故障切换的过程中,MHA能做到0~30秒之内自动完成数据库的故障切换操作,并且在进

⭐行故障切换的过程中,MHA能够最大程度上保证数据库的一致性,以达到真正意义上的高可用

⭐MHA由perl语言编写,该工具仅仅使用于MySQLReplication环境,目的在于维持Master主库的高可用性

⭐⭐MHA是基于标准的MySQL主从复制(异步/半同步)

⭐MHA由两部分组成管理节点(MHA manager)和数据节点(MHA Node)两部分组成

⭐MHA manager 可以单独部署在一台服务器上,可以部署在一台slave上面

了解:主从复制架构:主从复制(一主多从);MHA架构(多主多从);MMM架构(3主多从)

2、MHA特点

⭐⭐自动故障切换过程中,MHA总会试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失

但这并不总是可行,例如如果主服务器硬件故障或者无法通过ssh访问,MHA则无法保存二进制日志,只能进行故障转移而丢失了最新的数据

⭐⭐使用MySQL5.5的半同步复制,可以大大降低数据丢失的风险。MHA可以与半同步复制结合

起来,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其

他所有的slave服务器上,因此可以保证所有节点的数据一致性,有时候可故意设置从节点慢于主

节点,当发生意外删除数据库倒是数据丢失时可从从节点二进制日志中恢复。

⭐MHA :为了解决的了是故障切换、数据尽可能的保存,以及所有节点日志的一致性
 

3、半同步、全同步及异步

⭐⭐⭐ 异步复制(Asynchronous replication) MySQL默 认的复制即是异步的,主库

在执行完客户端提交的事务后会立即将结果返给给客户端,并不关心从库是否已经 接收并处

理,这样就会有一个问题,主如果crash掉了,此时主上已经提交的事务可能并没有传到从

上,如果此 时,强行将从提升为主,可能导致新主上的数据不完整。

⭐⭐⭐全同步复制(Fully synchronous replication) 指当主 库执行完一个事务,所有

的从库都执行了该事务才返回给客户端。因为需要等待所有从库执行完该事务才能返 回,所

以全同步复制的性能必然会收到严重的影响。

⭐⭐⭐半同步复制(Semisynchronous replication) 介于异步复 制和全同步复制之

间,主库在执行完客户端提交的事务后不是立刻返回给客户端,而是等待至少一个从库接收

到并写到relay log中才返回给客户端。相对于异步复制,半同步复制提高了数据的安全性,

同时它也造成了一 定程度的延迟,这个延迟最少是一个TCP/IP往返的时间。所以,半同步复

制最好在低延时的网络中使用。

总结:异步与半同步异同 默认情况下MySQL的复制是异步的,Master上所有的更新操作写

入Binlog之后 并不确保所有的更新都被复制到Slave之上。异步操作虽然效率高,但是在

Master/Slave出现问题的时 候,存在很高数据不同步的风险,甚至可能丢失数据。

MySQL5.5引入半同步复制功能的目的是为了保 证在master出问题的时候,至少有一台

Slave的数据是完整的。在超时的情况下也可以临时转入异步复 制,保障业务的正常使用,

直到一台salve追赶上之后,继续切换到半同步模式。

 二、MHA实验

(1)、 实验环境

服务器 CentOS7.4(64 位) 

准备四台虚拟机   除manage 外其他三台都需要装mysql数据库

manage 192.168.182.163 manager组件,node组件

Master  192.168.182.175   node组件

Slave1  192.168.182.133   node组件(主--备)

Slave2  192.168.182.134   node组件

先使用三台mysql服务器,配置一主两从,实现主从复制

安装MHA软件

配置免密登录和MHA的高可用

模拟故障并进行查看

1、修改master的主配置文件

#开启二进制日志log_bin,允许从服务器同步log-slave-updates 22行之后

cat /etc/my.cnf

[mysqld]

server-id = 1

log_bin = master-bin

log-slave-updates = true

配置从服务器

#在/etc/my.cnf 中修改或者增加下面内容

#开启中继日志,创建索引,同步主服务器

#slave 1

vim /etc/my.cnf

server-id = 2

log_bin = master-bin

relay-log = relay-log-bin

relay-log-index = slave-realy-bin.index

#slave 2
vim /etc/my.cnf
server-id = 2
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-realy-bin.index

⭐⭐⭐master、slave1、slave2分别做两个软链接 第一个是mysql命令
#第二个mysqlbinlog是节点恢复  
ln -s /usr/local/mysql/bin/mysql /usr/sbin
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin

#配置MySQL 一主两从
#在所有数据库节点上授权两个用户,一个是从库同步使用,另一个是manager使用
第四个账户managter 管理mysql集群使用(监控)
grant replication slave on *.* to 'myslave'@'192.168.182.%' identified by '123456'; 
grant all privileges on *.* to 'mha'@'192.168.182.%' identified by 'manager';
flush privileges;
Mha主从复制的健康检车是使用的用户是mha  密码是manager
⭐⭐#下面三条授权理论上不用添加,但是实验环境通过MHA检查MySQL主从报错,
报两个从库通过主机名连接不上主库,所以所有数据库都需要添加以下授权
通过mha检查的时候,是通过主机名的形式进行监控,这种情况会容易报错
grant all privileges on *.* to 'mha'@'master' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';

 所有从库开启只读功能(不会对超级管理员super生效,普通用户)

flush privileges;

刷新权限所有mysql

#在master上查看二进制文件和同步点

#在两台节点服务器进行同步
change master to master_host='192.168.182.175',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=1747;

start slave;
show slave status\G;

Slave1

 

 Slave2

(2) 配置MHA

#在所有服务器上安装MHA依赖环境,首先安装epel源,只有安装了源 perl才会有

#安装epel源,并且不进行gph检查

yum install epel-release --nogpgcheck -y

#perl针对于mysql数据库
#从配置文件中提拿其中的值
#log-日志
#多线程管理
#扩展工具CBuilder  MakeMaker
#cpan perl中的数据库
yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN
#MHA 软件包对于每个操作系统版本不一样,这里Centos7.4必须选择0.57版本
#在所有服务器上必须先安装node组件,最后在MHA-manager节点上安装manager组件
因为manager依赖node组件,

#同步阿里云时间服务器

ntpdate ntp.aliyun.com

数据包上传之后直接解压

tar zxvf mha4mysql-node-0.57.tar.gz

cd mha4mysql-node-0.57

perl Makefile.PL

make && make install

在MHA节点上安装manager组件(必须先安装node才能安装manager组件)

tar zxvf mha4mysql-manager-0.57.tar.gz

cd mha4mysql-manager-0.57

perl Makefile.PL

make && make install

manager 安装后在/usr/local/bin目录下会生成几个工具,主要包括以下:
masterha-check_ssh  		检查MHA的SSH配置状况(免交互)
masterha_check_repl  		检查MySQL复制状况
masterha_manager 			启动manager的脚本
masterha_check_status 		检查当前MHA运行状态
masterha_master_monitor 	检查master是否宕机
masterha_master_switch 		控制故障转移(自动或者手动)
masterha_conf_host 			添加或删除配置的server信息
masterha_stop  				关闭manager

(3)配置无密码认证

#一、在mannager上配置到所有数据库节点的无密码认证
#一路回车
ssh-keygen -t rsa
ssh-copy-id 192.168.182.175
ssh-copy-id 192.168.182.163
ssh-copy-id 192.168.182.133
ssh-copy-id 192.168.182.134

#二、在master上配置到slave1和salve2的无密码认证
ssh-keygen -t rsa
ssh-copy-id 192.168.182.175
ssh-copy-id 192.168.182.163
ssh-copy-id 192.168.182.133
ssh-copy-id 192.168.182.134
#三、在slave1上配置到master和salve2的无密码认证
ssh-keygen -t rsa
ssh-copy-id 192.168.182.175
ssh-copy-id 192.168.182.163
ssh-copy-id 192.168.182.133
ssh-copy-id 192.168.182.134
#四、在slave2上配置到master和salve1的无密码认证
ssh-keygen -t rsa
ssh-copy-id 192.168.182.175
ssh-copy-id 192.168.182.163
ssh-copy-id 192.168.182.133
ssh-copy-id 192.168.182.134

(4) 配置MHA

1、在MHA节点上复制相关脚本到/usr/local/bin目录
cp -ra /root/mha4mysql-manager-0.57/samples/scripts/ /usr/local/bin

#-a:此选项通常在复制目录时使用,它保留链接、文件属性,并复制目录下的所有内容
#-r: 递归
#拷贝后会有四个执行文件
ll /usr/local/bin/scripts/
master_ip_failover			#自动切换时 VIP管理的脚本⭐⭐
master_ip_online_change		#在线切换时 VIP的管理
power_manager				#故障发生后关闭主机的脚本
send_report					#因故障切换后发送报警的脚本
#复制上述的master_ip_failover	到/usr/local/bin目录 这里使用脚本管理VIP
cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin

 

#修改master_ip_failover内容(删除原有内容,直接复制)

#!/usr/bin/env perl 
use strict;
use warnings FATAL => 'all';

use Getopt::Long;

my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
my $vip = '192.168.226.100';		#浮动IP
my $brdc = '192.168.226.255';	#广播地址
my $ifdev = 'ens33';		#使用的网卡为ens33
my $key = '1';			#国际序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";							#使用ifoconfig命令将其启动,同时设置浮动地址
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";							#可以使用ifconfig命令将其down掉(关闭)
my $exit_code = 0;			#正常退出(返回状态码)
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);

exit &main();

sub main {

print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";

if ( $command eq "stop" || $command eq "stopssh" ) {

my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {

my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
# A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
#去除#开头的部分,PS:第一行添加#
% s/^#//

#创建MHA软件目录并拷贝配置文件

mkdir /etc/masterha

cp /root/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha/

vim /etc/masterha/app1.cnf

默认规则slave顶替为新的master,原则上是选择slaves中二进制日志文件大小最接近master的从服务器

默认规则:当从服务器的二进制文件与master服务器的二进制文件相差100M的时候,则不会将此slave服务器做为新的master

而下面是指定

(5)测试

1、测试无密码认证,如果正常会输出successfully

masterha_check_ssh -conf=/etc/masterha/app1.cnf

2、测试主从复制

masterha_check_repl -conf=/etc/masterha/app1.cnf

此处出现it not ok 需要更改 /etc/my.cnf中的文件

将/etc/my.cnf中的配置注释掉

刷新mysql

并查看主从复制 是否正常

Slave1

 Slave2

#测试主从复制

masterha_check_repl -conf=/etc/masterha/app1.cnf

 3、测试VIP地址是否能够漂移

#需注意:第一次配置需要在master节点上手动开启虚拟IP
/sbin/ifconfig ens192:1 192.168.182.200


#启动MHA
#启动时会进行日志记录(在后台开启)
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

解释:
ohup 	//选项 

masterha_manager 	//开启

--conf=/etc/masterha/app1.cnf  //指定配置文件

--remove_dead_master_conf //当master服务器失效时,发生主从切换后,会把旧的master的ip从主配置文件删

--ignore_last_failover//忽略故障转移,忽略掉总是宕机不够可靠的服务器
在缺省情况下,如果MHA检测到连续发生宕机,且两次宕机间隔不足8小时的话,则不会进行Failove之所以这样限制是为了避免ping-pong效应。该参数代表忽略桑次MHA出发切换产生的文件,默认情况 MHA发生切换后会在日志记录下,也就是上面设置的日志app1.failover.complete文件,
下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件:为了方便,这里设为为--ianore_last_failover
< /dev/null> //生成的所有信息会导到nul1下或者/var/log/masterha/app1/manager.log日志文件中
2>&1&  //把2错误性的输山从定向为标准性输山,"&"开启后台运行


#查看到当前的master节点是谁
masterha_check_status --conf=/etc/masterha/app1.cnf
#查看当前日志信息
cat /var/log/masterha/app1/manager.log 

#查看MySQL的VIP地址 192.168.226.100是否存在,这个VIP地址不会因为manager节点停止MHA服务而消失
ifconfig

验证
#manager服务器上启用监控观察日志
tail -f /var/log/masterha/app1/manager.log 

#模拟故障查看master变化
systemctl stop mysqld

 已漂移成功

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值