【MySQL 主从复制与读写分离】


一、MySQL主从复制

1.1、主从复制架构和原理

·向上扩展,垂直扩展

·向外扩展,横向扩展

1.2、MySQL的扩展

·读写分离

·复制:每个节点都有相同的数据集,向外扩展,基于二进制日志的单向复制

1.2.1、什么是读写分离

1. 读写分离的基本原理

基本的原理是让主数据库处理事务性增、改、删操作(INSERT、UPDATE、DELETE),而从数据库处理SELECT查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库。

2. MySQL 读写分离原理

读写分离就是只在主服务器上写,只在从服务器上读。基本的原理是让主数据库处理事务性操作,而从数据库处理 select 查询。数据库复制被用来把主数据库上事务性操作导致的变更同步到集群中的从数据库。

目前较为常见的 MySQL 读写分离分为以下两种:

1)基于程序代码内部实现
在代码中根据 select、insert 进行路由分类,这类方法也是目前生产环境应用最广泛的。 优点是性能较好,因为在程序代码中实现,不需要增加额外的设备为硬件开支;缺点是需要开发人员来实现,运维人员无从下手。 但是并不是所有的应用都适合在程序代码中实现读写分离,像一些大型复杂的Java应用,如果在程序代码中实现读写分离对代码改动就较大。

2)基于中间代理层实现

代理一般位于客户端和服务器之间,代理服务器接到客户端请求后通过判断后转发到后端数据库,有以下代表性程序。

(1)MySQL-Proxy。MySQL-Proxy 为 MySQL 开源项目,通过其自带的 lua 脚本进行SQL 判断。

(2)Atlas。是由奇虎360的Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间层项目。它是在mysql-proxy 0.8.2版本的基础上,对其进行了优化,增加了一些新的功能特性。360内部使用Atlas运行的mysql业务,每天承载的读写请求数达几十亿条。支持事物以及存储过程。

(3)Amoeba。由陈思儒开发,作者曾就职于阿里巴巴。该程序由Java语言进行开发,阿里巴巴将其用于生产环境。但是它不支持事务和存储过程。

·由于使用MySQL Proxy 需要写大量的Lua脚本,这些Lua并不是现成的,而是需要自己去写。这对于并不熟悉MySQL Proxy 内置变量和MySQL Protocol 的人来说是非常困难的。

·Amoeba是一个非常容易使用、可移植性非常强的软件。因此它在生产环境中被广泛应用于数据库的代理层。

1.2.2、为什么要读写分离

因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的。

但是数据库的“读”(读10000条数据可能只要5秒钟)。

所以读写分离,解决的是,数据库的写入,影响了查询的效率。

1.2.3、什么时候要读写分离

1、 数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下会考虑使用。

2、 利用数据库主从同步,再通过读写分离可以分担数据库压力,提高性能。

1.2.4、主从复制与读写分离

在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求的。无论是在安全性、高可用性还是高并发等各个方面都是完全不能满足实际需求的。

因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。有点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysql主从复制是对数据库中的数据、语句做备份

1.2.5、mysql支持的复制类型

(1)STATEMENT:基于语句的复制。在服务器上执行sql语句,在从服务器上执行同样的语句,mysql默认采用基于语句的复制,执行效率高。
(2)ROW:基于行的复制。把改变的内容复制过去,而不是把命令在从服务器上执行一遍。
(3)MIXED:混合类型的复制。默认采用基于语句的复制,一旦发现基于语句无法精确复制时,就会采用基于行的复制。

1.3、复制的共用

数据分布

负载均衡读操作

备份

高可用和故障切换

MySQL升级测试

1.4、复制架构

在这里插入图片描述

1.5、主从复制的原理

请添加图片描述

1、MySQL主服务器数据更新,写入二进制日志
2、MySQL从服务器开启I/O线程向主服务器请求二进制日志记录
3、主服务接收到I/O线程之后会开启dump线程,然后为每个I/O线程发送二进制日志记录
4、从服务器会保存二进制日志记录到自己的中继日志里面
5、从服务器开启SQL线程读取中继日志中的二进制日志并解析成SQL语句,进行逐一执行

注:
●中继日志通常会位于 OS 缓存中,所以中继日志的开销很小。

●复制过程有一个很重要的限制,即复制在 Slave上是串行化的,也就是说 Master上的并行更新操作不能在 Slave上并行操作

二、实验(一主两从)

1、环境配置:

准备三台 MySQL 服务器 分别是:
主MySQL服务器:192.168.102.201 MySQL服务器:192.168.102.302 MySQL服务器:192.168.102.40

进行实验之前要将3台服务器先关闭防火墙

systemctl stop firewalld
setenforce 0

2、Mysql主从服务器时间同步

##主服务器设置##
yum install ntp -y

vim /etc/ntp.conf
--末尾添加--
server 127.127.80.0							#设置本地是时钟源,注意修改网段
fudge 127.127.80.0 stratum 8				#设置时间层级为8(限制在15内)

service ntpd start


##从服务器设置##
yum install ntp ntpdate -y

service ntpd start
/usr/sbin/ntpdate 192.168.102.20				#进行时间同步

crontab -e
*/30 * * * * /usr/sbin/ntpdate 192.168.102.20

1、下载nfp服务,修改时间同步配置文件

在这里插入图片描述

查看ntp服务器的详细状态

在这里插入图片描述

2、启动服务,并在从服务器上配置计划性任务进行时间同步

在一个192.168.102.30的从服务器上进行修改
在这里插入图片描述
在这里插入图片描述

在192.168.102.40的从服务器上进行修改
在这里插入图片描述

使用ntpstat 命令查看时间同步状态,这个一般需要5-10分钟后才能成功连接和同步。所以,服务器启动后需要稍等下.等到一定时间后就会显示时间同步了
在这里插入图片描述

3、主服务器的mysql配置

vim /etc/my.cnf
server-id=1
log-bin=mysql-bin						#添加,主服务器开启二进制日志
binlog_format=mixed

#选配项	
expire_logs_days=7						#设置二进制日志文件过期时间,默认值为0,表示logs不过期
max_binlog_size=500M					#设置二进制日志限制大小,如果超出给定值,日志就会发生滚动,默认值是1GB
skip_slave_start=1						#阻止从库崩溃后自动启动复制,崩溃后再自动复制可能会导致数据不一致的

#"双1设置",数据写入最安全
innodb_flush_logs_at_trx_commit=1		#redo log(事务日志)的刷盘策略,每次事务提交时MySQL都会把事务日志缓存区的数据写入日志文件中,并且刷新到磁盘中,该模式为系统默认
sync_binlog=1							#在进行每1次事务提交(写入二进制日志)以后,Mysql将执行一次fsync的磁盘同步指令,将缓冲区数据刷新到磁盘
---------------------------------------------------------------
#"双1设置"适合数据安全性要求非常高,而且磁盘IO写能力足够支持的业务,比如订单、交易、充值、支付消费系统。"双1模式"下,当磁盘IO无法满足业务需求时,比如11.11活动的压力。推荐一下性能较快的设置,并使用带蓄电池后备电源,防止系统断电异常。
innodb_flush_logs_at_trx_commit=2		#每次事务提交时MySQL都会把日志缓存区的数据写入日志文件中,但是并不会同时刷新到磁盘上。该模式下,MySQL会每秒执行一次刷新磁盘操作
sync_binlog=500							#在进行500次事务提交以后,Mysql将执行一次fsync的磁盘同步指令,将缓冲区数据刷新到磁盘

1、配置MySQL配置文件开启 二进制日志

在这里插入图片描述

修改完配置文件后要先重启一下服务才能生效

systemctl restart mysqld.service 
#重新启动一下mysql的服务

grant replication slave on *.* to 'myslave'@'192.168.102.%' identified by 'abc123';

flush privileges;

show master status;

在这里插入图片描述

4、配置从服务器 slave1

vim /etc/my.cnf
server-id = 2							#修改,注意id与Master的不同,两个Slave的id也要不同
relay-log=relay-log-bin						#开启中继日志,从主服务器上同步日志文件记录到本地
relay-log-index=relay-log-bin.index			#定义中继日志文件的位置和名称,一般和relay-log在同一目录

#选配项
innodb_buffer_pool_size=2048M		#用于缓存数据和索引的内存大小,让更多数据读写内存中完成,减少磁盘操作,可设置为服务器总可用内存的 70-80%
sync_binlog=0						#MySQL不做任何强制性的磁盘刷新指令,而是依赖操作系统来刷新数据到磁盘
innodb_flush_log_at_trx_commit=2	#每次事务log buffer会写入log file,但一秒一次刷新到磁盘
log-slave-updates=0					#slave 从 master 复制的数据会写入二进制日志文件里,从库做为其他从库的主库时设置为 1
relay_log_recovery=1				#当 slave 从库宕机后,假如 relay-log 损坏了,导致一部分中继日志没有处理,则自动放弃所有未执行的 relay-log, 并且重新从 master 上获取日志,这样就保证了 relay-log 的完整性。默认情况下该功能是关闭的,将 relay_log_recovery 的值设置为 1 时, 可在 slave 从库上开启该功能,建议开启。

1、配置从服务器MySQL配置文件,开启中继日志

在这里插入图片描述

 change master to master_host='192.168.102.20',master_user='myslave',master_password='abc123',master_log_file='mysql-bin.000001',master_log_pos=604;

 start slave;

在这里插入图片描述
查看服务器状态

show slave status\G

在这里插入图片描述

5、配置从服务器 slave2

vim /etc/my.cnf
server-id = 3						#修改,注意id与Master的不同,两个Slave的id也要不同
relay-log=relay-log-bin						#开启中继日志,从主服务器上同步日志文件记录到本地
relay-log-index=relay-log-bin.index			#定义中继日志文件的位置和名称,一般和relay-log在同一目录

#选配项
innodb_buffer_pool_size=2048M		#用于缓存数据和索引的内存大小,让更多数据读写内存中完成,减少磁盘操作,可设置为服务器总可用内存的 70-80%
sync_binlog=0						#MySQL不做任何强制性的磁盘刷新指令,而是依赖操作系统来刷新数据到磁盘
innodb_flush_log_at_trx_commit=2	#每次事务log buffer会写入log file,但一秒一次刷新到磁盘
log-slave-updates=0					#slave 从 master 复制的数据会写入二进制日志文件里,从库做为其他从库的主库时设置为 1
relay_log_recovery=1				#当 slave 从库宕机后,假如 relay-log 损坏了,导致一部分中继日志没有处理,则自动放弃所有未执行的 relay-log, 并且重新从 master 上获取日志,这样就保证了 relay-log 的完整性。默认情况下该功能是关闭的,将 relay_log_recovery 的值设置为 1 时, 可在 slave 从库上开启该功能,建议开启。

在这里插入图片描述

 change master to master_host='192.168.102.20',master_user='myslave',master_password='abc123',master_log_file='mysql-bin.000001',master_log_pos=604;

 start slave;

在这里插入图片描述

6、验证主从复制效果

1、master服务器高并发,形成大量事务
2、网络延迟
3、主从硬件设备导致
cpu主频、内存io、硬盘io
4、是同步复制、而不是异步复制
从库优化Mysql参数。比如增大innodb_buffer_pool_size,让更多操作在Mysql内存中完成,减少磁盘操作。
从库使用高性能主机。包括cpu强悍、内存加大。避免使用虚拟云主机,使用物理主机,这样提升了i/o方面性。
从库使用SSD磁盘
网络优化,避免跨机房实现同步

主服务器上进入执行 create database master;
 
去从服务器上查看 show databases;

在这里插入图片描述

7、Slave_IO_Running: No 的可能性

    网络不通
    
    my.cnf配置有问题
    
    密码、file文件名、pos偏移量不对
    
    防火墙没有关闭

7.1、主从服务器server-id一致

修改了my.cnf文件中的server-id,但仍然不生效。原因如下:

MySQL启动时,会自动从data/auto.cnf 文件中获取server-uuid值,并将这个值存储在全局变量server_uuid中。如果这个值或者这个文件不存在,那么将会生成一个新的uuid值,并将这个值保存在auto.cnf文件中。

#在配置文件中修改server-id的值
vim /etc/my.cnf

#删除auto.cnf文件
cd /usr/local/mysql/data
rm -rf auto.cnf

#重启服务,重新生成一个auto.cnf文件
systemctl restart mysqld

在这里插入图片描述

三、设置MySQL半同步复制

1、主数据库的配置

vim /etc/my.cnf				#在 [mysqld] 区域添加下面内容
 
plugin-load=rpl_semi_sync_master=semisync_master.so	    #加载mysql半同步复制的插件
rpl_semi_sync_master_enabled=ON							#或者设置为"1",即开启半同步复制功能
rpl-semi-sync-master-timeout=1000						#超时时间为1000ms,即1s
 
systemctl restart mysqld

在这里插入图片描述

2、从数据库的配置

2.1、从服务器1 的数据库配置

vim /etc/my.cnf	
 
plugin-load=rpl_semi_sync_slave=semisync_slave.so
rpl_semi_sync_slave_enabled=ON
 
systemctl restart mysqld

在这里插入图片描述

2.2、从服务器2 的数据库配置

vim /etc/my.cnf	
 
plugin-load=rpl_semi_sync_slave=semisync_slave.so
rpl_semi_sync_slave_enabled=ON
 
systemctl restart mysqld

在这里插入图片描述

3、查看半同步运行状态

#主数据库执行
show status like 'Rpl_semi_sync_master_status';
show variables like 'rpl_semi_sync_master_timeout';
 
#从数据库执行(此时可能还是OFF状态,需要在下一步重启IO线程后,从库半同步状态才会为ON)
show status like 'Rpl_semi_sync_slave_status';
 
#开启IO线程
STOP SLAVE IO_THREAD;
START SLAVE IO_THREAD;

主服务器的查看
在这里插入图片描述

从服务器查看
在这里插入图片描述

#在主库查询半同步状态
show status like '%Rpl_semi%';
 
参数说明:
Rpl_semi_sync_master_clients                      #半同步复制客户端的个数
Rpl_semi_sync_master_net_avg_wait_time            #平均等待时间(默认毫秒)
Rpl_semi_sync_master_net_wait_time                #总共等待时间
Rpl_semi_sync_master_net_waits                    #等待次数
Rpl_semi_sync_master_no_times                     #关闭半同步复制的次数
Rpl_semi_sync_master_no_tx                        #表示没有成功接收slave提交的次数
Rpl_semi_sync_master_status                       #表示当前是异步模式还是半同步模式,on为半同步
Rpl_semi_sync_master_timefunc_failures            #调用时间函数失败的次数
Rpl_semi_sync_master_tx_avg_wait_time             #事物的平均传输时间
Rpl_semi_sync_master_tx_wait_time                 #事物的总共传输时间
Rpl_semi_sync_master_tx_waits                     #事物等待次数
Rpl_semi_sync_master_wait_pos_backtraverse        #可以理解为"后来的先到了,而先来的还没有到的次数",(主从复制为串行化复制,顺序错误后该参数会记录下来)
Rpl_semi_sync_master_wait_sessions                #当前有多少个session因为slave的回复而造成等待
Rpl_semi_sync_master_yes_tx                       #成功接受到slave事物回复的次数 

在主库查询半同步状态
在这里插入图片描述
当半同步复制发生超时(由rpl_semi_sync_master_timeout参数控制,默认为10000ms,即10s),会暂时关闭半同步复制,转而使用异步复制,也就是会自动降为异步工作。
当 master dump 线程发送完一个事务的所有事件之后,如果在 rpl_semi_sync_master_timeout 内,收到了从库的响应, 则主从又重新恢复为半同步复制。

注:
1) 在一主多从的架构中,如果要开启半同步复制,并不要求所有的从都是半同步复制。
2) MySQL 5.7极大的提升了半同步复制的性能。
5.6 版本的半同步复制,dump thread 承担了两份不同且又十分频繁的任务:传送binlog 给 slave ,还需要等待 slave 反馈信息,而且这两个任务是串行的,dump thread 必须等待 slave 返回之后才会传送下一个 events 事务。dump thread 已然成为整个半同步提高性能的瓶颈。在高并发业务场景下,这样的机制会影响数据库整体的系统吞吐量(TPS)。
5.7 版本的半同步复制中,独立出一个 ack collector thread ,专门用于接收 slave 的反馈信息。这样 master 上有两个线程独立工作,可以同时发送 binlog 到 slave ,和接收 slave 的反馈。

4、测试半同步复制

在主服务器上创建一个新库
create database t01;
show databases;
show status like '%Rpl_semi%';

在这里插入图片描述

四、搭建MySQL读写分离

1、Amoeba服务器安装

1.1、安装Java 环境

在新的一个主机上进行安装Amoeba服务器

因为 Amoeba 基于是 jdk1.5 开发的,所以官方推荐使用 jdk1.5 或 1.6 版本,高版本不建议使用。

cd /opt/
cp jdk-6u14-linux-x64.bin /usr/local/
cd /usr/local/
chmod +x jdk-6u14-linux-x64.bin
./jdk-6u14-linux-x64.bin
#按yes,按enter
 
mv jdk1.6.0_14/ /usr/local/jdk1.6
 
vim /etc/profile
export JAVA_HOME=/usr/local/jdk1.6
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
export AMOEBA_HOME=/usr/local/amoeba
export PATH=$PATH:$AMOEBA_HOME/bin

在这里插入图片描述

source /etc/profile
java -version

在这里插入图片描述

1.2、安装Amoeba 软件

mkdir /usr/local/amoeba
tar zxvf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba/
chmod -R 755 /usr/local/amoeba/
/usr/local/amoeba/bin/amoeba
#如显示amoeba start|stop说明安装成功

在这里插入图片描述

2、配置Amoeba 读写分离

2.1开发权限给Amoeba访问

#先在Master、Slave1、Slave2 的mysql上开放权限给 Amoeba 访问
grant all on *.* to test@'192.168.102.%' identified by 'abc23';

在这里插入图片描述

2.2、回到amoeba服务器配置amoeba服务

cd /usr/local/amoeba/conf/
 
cp amoeba.xml amoeba.xml.bak
vim amoeba.xml									#修改amoeba配置文件
--30--
<property name="user">amoeba</property>
--32-- 
<property name="password">123456</property>
--115--
<property name="defaultPool">master</property>
--117-去掉注释-
<property name="writePool">master</property>
<property name="readPool">slaves</property>

在这里插入图片描述

在这里插入图片描述

cp dbServers.xml dbServers.xml.bak
vim dbServers.xml								#修改数据库配置文件
--23--注释掉  作用:默认进入test库 以防mysql中没有test库时,会报错
<!-- <property name="schema">test</property> -->
--26--修改
<property name="user">amoeba</property>
--28-30--去掉注释
<property name="password">abc123</property>
--45--修改,设置主服务器的名Master
<dbServer name="master"  parent="abstractServer">
--48--修改,设置主服务器的地址
<property name="ipAddress">192.168.88.10</property>
--52--修改,设置从服务器的名slave1
<dbServer name="slave1"  parent="abstractServer">
--55--修改,设置从服务器1的地址
<property name="ipAddress">192.168.88.20</property>
--58--复制上面6行粘贴,设置从服务器2的名slave2和地址
<dbServer name="slave2"  parent="abstractServer">
<property name="ipAddress">192.168.88.30</property>
--65--修改
<dbServer name="slaves" virtual="true">
--71--修改
<property name="poolNames">slave1,slave2</property>

在这里插入图片描述
在这里插入图片描述

/usr/local/amoeba/bin/amoeba start&					
#启动Amoeba软件,按ctrl+c 返回

netstat -anpt | grep java							
#查看8066端口是否开启,默认端口为TCP 8066

在这里插入图片描述

3、测试读写分离

3.1、在主服务器上写入数据进行测试

在主服务器上写入:
create database hello;
use hello;
create table test1 (id int(10),name varchar(10),address varchar(20));
#关闭slave服务器的同步复制,然后插入数据
insert into test1 values('1','小钱','this_is_master');

在这里插入图片描述
在两台从服务器上:

stop slave;	

#停止同步

3.2、在客户端安装软件

安装数据库

yum install -y mariadb-server mariadb
systemctl start mariadb.service
 
在客户端服务器上测试:
mysql -u amoeba -p1abc23 -h 192.168.102.50 -P8066		
#通过amoeba服务器代理访问mysql ,在通过客户端连接mysql后写入的数据只有主服务会记录,然后同步给从--从服务器
 
use hello;
#客户端会分别向slave1和slave2读取数据,显示的只有在两个从服务器上添加的数据,没有在主服务器上添加的数据
select * from test;		

在这里插入图片描述在这里插入图片描述
在这里插入图片描述

在客户上写入数据

#只有主服务器上有此数据
insert into test values('4','qianqi','this_is_client');		

在这里插入图片描述

#在两个从服务器上执行 start slave; 即可实现同步在主服务器上添加的数据
start slave;

在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值