MySQL高可用集群之MySQL-MMM

一、环境简述

1、工作逻辑图

wKiom1LiE0TjqodPAAFe12iPcoM036.jpg

2、MySQL-MMM优缺点

优点:高可用性,扩展性好,出现故障自动切换,对于主主同步,在同一时间只提供一台数据库写操作,保证的数据的一致性。

缺点:Monitor节点是单点,可以结合Keepalived实现高可用。

3、MySQL-MMM工作原理

MMM(Master-Master replication managerfor MysqlMysql主主复制管理器)是一套灵活的脚本程序,基于perl实现,用来对mysql replication进行监控和故障迁移,并能管理mysql Master-Master复制的配置(同一时间只有一个节点是可写的)

mmm_mond监控进程,负责所有的监控工作,决定和处理所有节点角色活动。此脚本需要在监管机上运行。

mmm_agentd运行在每个mysql服务器上的代理进程,完成监控的探针工作和执行简单的远端服务设置。此脚本需要在被监管机上运行。

mmm_control一个简单的脚本,提供管理mmm_mond进程的命令。

mysql-mmm的监管端会提供多个虚拟IP(VIP),包括一个可写VIP,多个可读VIP,通过监管的管理,这些IP会绑定在可用mysql之上,当某一台mysql宕机时,监管会将VIP迁移至其他mysql。

在整个监管过程中,需要在mysql中添加相关授权用户,以便让mysql可以支持监理机的维护。授权的用户包括一个mmm_monitor用户和一个mmm_agent用户,如果想使用mmm的备份工具则还要添加一个mmm_tools用户。

4、需求描述

操作系统:CentOS 6.5_X64

数据库:MySQL 5.1

MMM:MySQL-MMM 2.2.1

数据库分配:

function

ip

hostname

server id

monitoring host

192.168.0.201

monitor

master 1

192.168.0.202

db1

1

master 2

192.168.0.203

db2

2

slave 1

192.168.0.204

db3

3

slave 2

192.168.0.205

db4

4

虚拟IP地址(VIP):

ip

role

192.168.0.211

writer

192.168.0.212

reader

192.168.0.213

reader

数据库同步需要的用户:

function

description

privileges

monitor user

mmm监控用于对mysql服务器进程健康检查

REPLICATION  CLIENT

agent user

mmm代理用来更改只读模式,复制的主服务器等

SUPER,  REPLICATION CLIENT, PROCESS

replication user

用于复制

REPLICATION SLAVE


二、db1,db2,db3和db4安装数据库并配置

1
2
3
[root@db1 ~] # yum install mysql-server mysql
[root@db1 ~] # service mysqld start
[root@db1 ~] # mysqladmin -u root password 123.com
1
2
3
4
5
6
7
8
9
10
11
12
13
[root@db1 ~] # vi /etc/my.cnf   #添加如下
[mysqld]
binlog- do -db= test            #需要记录二进制日志的数据库,多个用逗号隔开
binlog-ignore-db=mysql,information_schema   #不需要记录二进制日志的数据库,多个用逗号隔开
auto_increment_increment=2   #字段一次递增多少
auto_increment_offset=1      #自增字段的起始值,值设置不同
replicate- do -db= test         #同步的数据库,多个写多行
replicate-ignore-db = information_schema  #不同步的数据库,多个写多行
server_id = 1                #每台设置不同
log_bin = mysql-bin
log_slave_updates            #当一个主故障,另一个立即接管
sync -binlog=1                #每条自动更新,安全性高,默认是0
[root@db1 ~] # service mysqld restart

三、配置db1和db2主主同步

#先查看下log bin日志和pos值位置

wKiom1LiFSSj8L93AADf1WvkZrc175.jpg

db1配置如下:

1
2
3
4
5
6
7
8
9
10
[root@db1 ~] # mysql -u root -p123.com
mysql> GRANT REPLICATION SLAVE ON *.* TO  'replication' @ '192.168.0.%'  IDENTIFIED BY  'replication' ;
mysql> flush privileges;
mysql> change master to
     -> master_host= '192.168.0.203' ,
     -> master_user= 'replication' ,
     -> master_password= 'replication' ,
     -> master_log_file= 'mysql-bin.000002' ,
-> master_log_pos=106;   #对端状态显示的值
mysql> start slave;      #启动同步

db2配置如下:

1
2
3
4
5
6
7
8
9
10
[root@db2 ~] # mysql -u root -p123.com
mysql> GRANT REPLICATION SLAVE ON *.* TO  'replication' @ '192.168.0.%'  IDENTIFIED BY  'replication' ;
mysql> flush privileges;
mysql> change master to
     -> master_host= '192.168.0.202' ,
     -> master_user= 'replication' ,
     -> master_password= 'replication' ,
     -> master_log_file= 'mysql-bin.000002' ,
     -> master_log_pos=106;
mysql> start slave;   #启动同步

#主主同步配置完毕,查看同步状态Slave_IO和Slave_SQL是YES说明主主同步成功。

wKiom1LiFWuCLUBJAAF0L482n6w090.jpg

在db2插入数据测试下:

wKioL1LiFWSR-i2vAAEZ-uKc1J4027.jpg

在db2查看是否同步成功:

wKiom1LiFZPB99NhAADLOk1KPqM603.jpg

可以看到已经成功同步过去,同样在db2插入到user表数据,也能同步过去。我们的双主就成功了,开始做主从复制。

四、配置slave1和slave2做为master1的从库

#先看下master1状态值

wKioL1LiFXuhn044AADgx45fyb4146.jpg

在slave1和slave2分别执行:

1
2
3
4
5
6
mysql> change master to
     -> master_host= '192.168.0.202' ,
     -> master_user= 'replication' ,
     -> master_password= 'replication' ,
     -> master_log_file= 'mysql-bin.000002' ,
     -> master_log_pos=434;

在slave1和slave2查看如下说明主从复制成功。但是数据没过来,这是因为主从复制原理只同步配置完后的增删改记录,以后的数据是不能同步的,我们可以把主的数据库备份了,然后在送数据库还原。

wKioL1LiFYjT9kuiAAF_Q3E37SE843.jpg

1
2
3
4
5
[root@db1 ~] # mysqldump -uroot -p123.com test > test.sql
[root@db1 ~] # scp test.sql root@192.168.0.204:/root/
[root@db1 ~] # scp test.sql root@192.168.0.205:/root/
[root@db3 ~] # mysql -u root -p123.com test < test.sql
[root@db4 ~] # mysql -u root -p123.com test < test.sql

五、MySQL-MMM安装配置

CentOS默认没有mysql-mmm软件包,官方推荐使用epel的网络源,五台都安装epel:

rpm -ivh http://mirrors.ustc.edu.cn/fedora/epel/6/x86_64/epel-release-6-8.noarch.rpm

1、monitor节点安装

[root@monitor ~]#  yum -y install mysql-mmm-monitor

2、四台db节点安装

[root@db1 ~]# yum -y install mysql-mmm-agent

3、在四台db节点授权monitor访问

1
2
3
[root@db ~] # mysql -u root -p123.com
mysql> GRANT REPLICATIONCLIENT ON *.* TO  'mmm_monitor' @ '192.168.0.%'  IDENTIFIED BY  'monitor' ;                   
mysql> GRANT SUPER,REPLICATION CLIENT, PROCESS ON *.* TO  'mmm_agent' @ '192.168.0.%'  IDENTIFIED BY 'agent' ;

4、修改mmm_common.conf文件(五台相同)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
[root@monitor ~] # vi /etc/mysql-mmm/mmm_common.conf
active_master_role      writer
<host default>
     cluster_interface       eth0
     pid_path                /var/run/mysql-mmm/mmm_agentd .pid
     bin_path                 /usr/libexec/mysql-mmm/
     replication_user        replication
     replication_password    replication
     agent_user              mmm_agent
     agent_password          agent
< /host >
<host db1>
     ip     192.168.0.202
     mode   master
     peer   db2
< /host >
<host db2>
     ip     192.168.0.203
     mode   master
     peer   db1
< /host >
<host db3>
     ip     192.168.0.204
     mode   slave
< /host >
<host db4>
     ip     192.168.0.205
     mode   slave
< /host >
<role writer>
     hosts  db1, db2
     ips    192.168.0.211
     mode   exclusive     #只有一个host可以writer,一般写操作是这个模式
< /role >
<role reader>
     hosts  db3, db4
     ips    192.168.0.212,192.168.0.213
     mode   balanced      #多个host可以reader,一般读操作是这个模式
< /role >

#通过scp命令传送到其他四台:

scp /etc/mysql-mmm/mmm_common.conf root@192.168.0.202/203/204/205:/etc/mysql-mmm/

5、修改四台db代理端mmm_agent.conf文件

1
2
3
[root@db ~] # vi /etc/mysql-mmm/mmm_agent.conf
include mmm_common.conf
this db1    #分别修改为本机的主机名,即db1、db2、db3和db4

6、修改管理端mmm_mon.conf文件

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
[root@monitor ~] # vi /etc/mysql-mmm/mmm_mon.conf
include mmm_common.conf
<monitor>
     ip                  127.0.0.1
     pid_path             /var/run/mysql-mmm/mmm_mond .pid
     bin_path             /usr/libexec/mysql-mmm
     status_path          /var/lib/mysql-mmm/mmm_mond .status
     ping_ips            192.168.0.202,192.168.0.203,192.168.0.204,192.168.0.205
#真实数据库IP,来检测网络是否正常
     auto_set_online     10   #恢复后自动设置在线的时间
< /monitor >
<host default>
     monitor_user        mmm_monitor
     monitor_password    monitor
< /host >
debug 0

六、启动MySQL-MMM

1、db代理端启动

[root@db1 ~]# /etc/init.d/mysql-mmm-agent start

[root@db1 ~]# chkconfigmysql-mmm-agent on

2、monitor管理端启动

[root@monitor ~]# /etc/init.d/mysql-mmm-monitor start

[root@monitor ~]# chkconfigmysql-mmm-monitor on

七、测试集群

1、查看集群状态

wKiom1LiFb6DJ7qrAADMVYB3Mgg233.jpg

由此看来,主db1是对外一个写入的角色,但不真正提供只写,要想实现读写分离还需要结合amoeba。后面的虚拟IP是真正来访问Mysql数据库的。

2、故障转移切换

停掉主db1数据库,等待几秒后,可以看到数据库db1处于HARD_OFFLINE(离线状态),检测不到数据库的存在。

wKioL1LiFaji0KVIAADgrHoh_JA978.jpg

启动主db1数据库后,可以看到数据库db1处于AWAITING_RECOVER(恢复状态),几秒后将恢复在线状态。模拟Slave故障也是如此,DOWN掉一个,虚拟IP会全部在另一台正常数据库上。

至此,MySQL-MMM架构配置完毕。后续会写在此基础上实现读写分离、负载均衡机制。如图:

wKiom1MBX3XiK9kMAAHOb5zpjwo697.jpg

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值