MySQL 主从复制与读写分离

前言:

什么是读写分离?

读写分离,基本的原理是让主数据库处理事务性增、改、删操作(INSERT、UPDATE、DELETE),而从数据库处理SELECT查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库。

为什么要读写分离?

因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的。
但是数据库的“读”(读10000条数据可能只要5秒钟)。
所以读写分离,解决的是,数据库的写入,影响了查询的效率。

什么时候要读写分离?

数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下会考虑使用。利用数据库主从同步,再通过读写分离可以分担数据库压力,提高性能。

一.主从复制与读写分离

在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求的。无论是在安全性、高可用性还是高并发等各个方面都是完全不能满足实际需求的。因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。有点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysql主从复制是对数据库中的数据、语句做备份。

1.mysql 支持的复制类型

(1)STATEMENT

基于语句的复制。在服务器上执行 sql 语句,在从服务器上执行同样的语句,执行效率高。

优点:执行效率高,占用空间小;

缺点:无法保证在高并发高负载时候的精确度

(2)ROW

基于行的复制。把改变的内容复制过去,而不是把命令在从服务器上执行一遍。MSSQL 5.7.7 之后,binlog 的存储格式默认 ROW。

优点:精确度高;

缺点:执行效率低,占用空间大

(3)MIXED

混合类型的复制。默认采用基于语句的复制,一旦发现基于语句无法精确复制时,就会采用基于行的复制。

2.主从复制的原理

就是基于二进制日志进行数据同步的

3.主从复制的工作过程

关键词:两个日志,三个线程

(1)主库(master)如果发生数据更新,会将写入操作记录到二进制日志(bin log)里

(2)从库(slave)探测到主库的二进制日志发生了更新,就会开启IO线程向主库请求二进制日志事件

(3)主库会为每个从库IO线程的请求开启DUMP线程,并发送二进制日志事件给从库

(4)从库接收到二进制日志事件后会保存到自己的中继日志(relay log)中
   附:在半同步模式下从库会返回确认信息给主库,主库会用ack收集线程接收从库反馈的确认信息(5.7版本开始支持)

(5)从库还会开启SQL线程读取中继日志里的事件,并在本地重放(将二进制日志事件解析成sql语句逐一执行),从而实现主库和从库的数据一致

注:

中继日志通常会位于 OS 缓存中,所以中继日志的开销很小。

复制过程有一个很重要的限制,即复制在 Slave上是串行化的,也就是说 Master上的并行更新操作不能在 Slave上并行操作。

4.主从复制的作用

(1)实现读写分离

(2)跨主机热备份数据

(3)作为数据库高可用性的基础

5.主从复制的同步模式

(1)异步复制     主库在执行完客户端提交的事务后就会立即响应给客户端

(2)半同步复制   主库在执行完客户端提交的事务后,只要等待一个从库返回响应给主库,才会

响应给客户端

(3)全同步复制   主库在执行完客户端提交的事务后,要等待所有从库返回都响应给主库,才会

响应给客户端

6.在什么情况下半同步复制会降为异步复制?

(1)当主库在半同步复制超时时间内(rpl_semi_sync_master_timeout)没有收到从库的响应,

就会自动降为半同步复制。

(2)当主库发送完一个事务事件后,主库在超时时间内收到了从库的响应,就会又恢复为半同步复制。

二.搭建主从复制服务器

1.初始化操作(主从都做)

systemctl stop firewalld
systemctl disable --now firewalld.service 
setenforce 0
vim /etc/sysconfig/selinux

2.主从服务器做时间同步(主从都做)

rpm -q chrony
vim /etc/chrony.conf
systemctl restart chronyd
netstat -lntup | grep chronyd
server ntp.aliyun.com iburst

3.修改主从数据库的配置文件,主库开启二进制日志,从库开启中继日志

(1)主库

vim /etc/my.cnf
server-id=1
log-bin=mysql-bin     #添加,主服务器开启二进制日志
binlog_format=mixed

(2)从库

vim /etc/my.cnf

server-id = 2
#修改,注意id与Master的不同,两个Slave的id也要不同

relay-log=relay-log-bin    
#开启中继日志,从主服务器上同步日志文件记录到本地

relay-log-index=relay-log-bin.index  
#定义中继日志文件的位置和名称,一般和relay-log在同一目录

4.在主库创建主从复制的用户,并授予主从复制的权限

systemctl restart mysqld
mysql -u root -pabc123

create user 'myslave'@'192.168.10.%' identified by 'myslave123';
grant replication slave on *.* to 'myslave'@'192.168.10.%';
flush privileges;
show master status\G

5.在从库使用 change master to 对接主库,并 start slave 开启同步

systemctl restart mysqld
mysql -u root -pabc123


change master to master_host='192.168.10.40', master_port=3306, master_user='myslave', master_password='myslave123', master_log_file='mysql-bin.000001', master_log_pos=775;

start slave;

6.在从库使用 show slave status\G 查看 IO线程和 SQL线程的状态是否都为 YES 

show slave status\G

7.创建库、表和文件测试

三.服务器配置含义

expire_logs_days=7						

#设置二进制日志文件过期时间,默认值为0,表示logs不过期
max_binlog_size=500M					

#设置二进制日志限制大小,如果超出给定值,日志就会发生滚动,默认值是1GB
skip_slave_start=1						

#阻止从库崩溃后自动启动复制,崩溃后再自动复制可能会导致数据不一致的

#"双1设置",数据写入最安全
innodb_flush_log_at_trx_commit=1		

#redo log(事务日志)的刷盘策略,每次事务提交时MySQL都会把事务日志缓存区的数据写入日志文件中,并且刷新到磁盘中,该模式为系统默认
sync_binlog=1							

#在进行每1次事务提交(写入二进制日志)以后,Mysql将执行一次fsync的磁盘同步指令,将缓冲区数据刷新到磁盘

#"双1设置"适合数据安全性要求非常高,而且磁盘IO写能力足够支持的业务,比如订单、交易、充值、支付消费系统。"双1模式"下,当磁盘IO无法满足业务需求时,比如11.11活动的压力。推荐一下性能较快的设置,并使用带蓄电池后备电源,防止系统断电异常。
innodb_flush_log_at_trx_commit=2		

#每次事务提交时MySQL都会把日志缓存区的数据写入日志文件中,但是并不会同时刷新到磁盘上。该模式下,MySQL会每秒执行一次刷新磁盘操作
sync_binlog=500							

#在进行500次事务提交以后,Mysql将执行一次fsync的磁盘同步指令,将缓冲区数据刷新到磁盘


#File 列显示日志名,Position 列显示偏移量

----从服务器的mysql配置----
vim /etc/my.cnf
server-id = 22								

#修改,注意id与Master的不同,两个Slave的id也要不同
relay-log=relay-log-bin						

#开启中继日志,从主服务器上同步日志文件记录到本地
relay-log-index=relay-log-bin.index			

#定义中继日志文件的位置和名称,一般和relay-log在同一目录

#选配项
innodb_buffer_pool_size=2048M		

#用于缓存数据和索引的内存大小,让更多数据读写在内存中完成,减少磁盘操作,可设置为服务器总可用内存的 70-80%
sync_binlog=0						

#MySQL不做任何强制性的磁盘刷新指令,而是依赖操作系统来刷新数据到磁盘
innodb_flush_log_at_trx_commit=2	

#每次事务log buffer会写入log file,但一秒一次刷新到磁盘
log-slave-updates=0					

#slave 从 master 复制的数据会写入二进制日志文件里,从库做为其他从库的主库时设置为 1
relay_log_recovery=1				

#当 slave 从库宕机后,假如 relay-log 损坏了,导致一部分中继日志没有处理,则自动放弃所有未执行的 relay-log, 并且重新从 master 上获取日志,这样就保证了 relay-log 的完整性。默认情况下该功能是关闭的,将 relay_log_recovery 的值设置为 1 时, 可在 slave 从库上开启该功能,建议开启。

四.MySQL 读写分离原理

读写分离就是只在主服务器上写,只在从服务器上读。基本的原理是让主数据库处理事务性操作,而从数据库处理 select 查询。数据库复制被用来把主数据库上事务性操作导致的变更同步到集群中的从数据库。
 

1.目前较为常见的 MySQL 读写分离

(1)基于程序代码内部实现

在代码中根据 select、insert 进行路由分类,这类方法也是目前生产环境应用最广泛的。

优点是性能较好,因为在程序代码中实现,不需要增加额外的设备为硬件开支;缺点是需要开发人

员来实现,运维人员无从下手。

但是并不是所有的应用都适合在程序代码中实现读写分离,像一些大型复杂的Java应用,如果在程

序代码中实现读写分离对代码改动就较大。

(2)基于中间代理层实现

代理一般位于客户端和服务器之间,代理服务器接到客户端请求后通过判断后转发到后端数据库,有以下代表性程序。

【1】MySQL-Proxy。MySQL-Proxy 为 MySQL 开源项目,通过其自带的 lua 脚本进行SQL 判

断。

【2】Atlas。是由奇虎360的Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间

层项目。它是在mysql-proxy 0.8.2版本的基础上,对其进行了优化,增加了一些新的功能特性。

360内部使用Atlas运行的mysql业务,每天承载的读写请求数达几十亿条。支持事物以及存储过

程。

【3】Amoeba。由陈思儒开发,作者曾就职于阿里巴巴。该程序由Java语言进行开发,阿里巴巴

将其用于生产环境。但是它不支持事务和存储过程。

【4】Mycat。是一款流行的基于Java语言编写的数据库中间件,是一个实现了MySql协议的服务

器,其核心功能是分库分表。配合数据库的主从模式还可以实现读写分离。

由于使用MySQL Proxy 需要写大量的Lua脚本,这些Lua并不是现成的,而是需要自己去写。这对

于并不熟悉MySQL Proxy 内置变量和MySQL Protocol 的人来说是非常困难的。

Amoeba是一个非常容易使用、可移植性非常强的软件。因此它在生产环境中被广泛应用于数据库

的代理层。

2.搭建读写分离

(1)安装jdk1.5版本

因为 Amoeba 基于是 jdk1.5 开发的,所以官方推荐使用 jdk1.5 或 1.6 版本,高版本不建议使用。

上传文件至/opt/目录下

cd /opt/
cp jdk-6u14-linux-x64.bin /usr/local/
cd /usr/local/
chmod +x jdk-6u14-linux-x64
./jdk-6u14-linux-x64.bin

//按yes,按enter
mv jdk1.6.0_14/ /usr/local/jdk1.6
vim /etc/profile.d/jdk1.6.sh 

export JAVA_HOME=/usr/local/jdk1.6.0_14
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export AMOEBA_HOME=/usr/local/amoeba
export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$AMOEBA_HOME/bin

source /etc/profile
java -version

(2)安装 Amoeba软件

mkdir /usr/local/amoeba
tar zxvf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba/
chmod -R 755 /usr/local/amoeba/
/usr/local/amoeba/bin/amoeba

//如显示amoeba start|stop说明安装成功

(3)配置 Amoeba读写分离,两个 Slave 读负载均衡

先在Master、Slave1、Slave2 的mysql上开放权限给 Amoeba 访问;

grant all on *.* to test@'192.168.10.%' identified by 'abc123';

再回到amoeba服务器配置amoeba服务

cd /usr/local/amoeba/conf/

cp amoeba.xml amoeba.xml.bak   #做备份

vim amoeba.xml									#修改amoeba配置文件

--30行--
<property name="user">amoeba</property>

--32行-- 
<property name="password">123456</property>

--115行--
<property name="defaultPool">master</property>

--117-去掉注释-
<property name="writePool">master</property>
<property name="readPool">slaves</property>


cp dbServers.xml dbServers.xml.bak
vim dbServers.xml								#修改数据库配置文件

--23行--注释掉  作用:默认进入test库 以防mysql中没有test库时,会报错
<!-- <property name="schema">test</property> -->

--26--修改
<property name="user">test</property>

--28-30--去掉注释
<property name="password">123.com</property>

--45--修改,设置主服务器的名Master
<dbServer name="master"  parent="abstractServer">

--48--修改,设置主服务器的地址
<property name="ipAddress">192.168.80.10</property>

--52--修改,设置从服务器的名slave1
<dbServer name="slave1"  parent="abstractServer">

--55--修改,设置从服务器1的地址
<property name="ipAddress">192.168.80.11</property>

--58--复制上面6行粘贴,设置从服务器2的名slave2和地址
<dbServer name="slave2"  parent="abstractServer">
<property name="ipAddress">192.168.80.12</property>

--65行--修改
<dbServer name="slaves" virtual="true">

--71行--修改
<property name="poolNames">slave1,slave2</property>

启动服务

/usr/local/amoeba/bin/amoeba start&					

#启动Amoeba软件,按ctrl+c 返回

netstat -anpt | grep java							

#查看8066端口是否开启,默认端口为TCP 8066

测试

在客户端服务器上测试:
mysql -u amoeba -p123456 -h 192.168.10.40 -P8066		
//通过amoeba服务器代理访问mysql ,在通过客户端连接mysql后写入的数据只有主服务会记录,然后同步给从--从服务器

在主服务器上:
use db_test;
create table test (id int(10),name varchar(10),address varchar(20));

在两台从服务器上:
stop slave;											#关闭同步
use db_test;
//在slave1上:
insert into test values('1','zhangsan','this_is_slave1');

//在slave2上:
insert into test values('2','lisi','this_is_slave2');

//在主服务器上:
insert into test values('3','wangwu','this_is_master');

//在客户端服务器上:
use db_test;
select * from test;		//客户端会分别向slave1和slave2读取数据,显示的只有在两个从服务器上添加的数据,没有在主服务器上添加的数据

insert into test values('4','qianqi','this_is_client');		//只有主服务器上有此数据

//在两个从服务器上执行 start slave; 即可实现同步在主服务器上添加的数据
start slave;

五.MySQL主从复制延迟

1.根本原因

主库可以并发多线程执行写入操作,而从库的SQL线程默认是单线程串行化复制,从库的复制效率可能会跟不上主库的写入速度

2.如何判断发生了主从复制延迟?

通过在从库执行show slave status\G命令,查看输出的Seconds_Behind_Master参数的值来判断,是否有发生主从延时。如果为正值表示主从已经出现延时,数字越大表示从库落后主库越多。

3.导致主从复制延迟有哪些因素?

(1)主库写入操作并发量太大

(2)网络延迟

(3)从库硬件比主库差

(4)使用了同步复制

(5)慢SQL语句过多

4.延迟的解决

(1)网络方面:将从库分布在相同局域网内或网络延迟较小的环境中。

(2)硬件方面:从库配置更好的硬件(CPU 内存 固态硬盘),提升随机写的性能。

(3)配置方面:

sync_binlog=0     innodb_flush_log_at_trx_commit=2      

#由于从库不需要这么高的数据安全性,所以不使用 双1设置

logs-slave-updates=0                                    

#从库同步的事件不记录到从库自身的二进制日志中

innodb_buffer_pool_size=物理内存的80%                  

 #加大innodb引擎缓存池大小,让更多数据读写在内存中完成,减少磁盘的IO压力

(4)架构方面:主从复制的同步模式采用 异步复制 或 半同步复制 或 并行复制          

采用读写分离架构

(5)操作方面:将大事务拆分为多个较小的事务

优化 DDL 操作,合并多个 DDL 操作为一个批处理操作

5.主从复制不一致问题的解决

(1)先进入主库,进行锁表,防止数据写入

flush tables with read lock;

set gloabl read_only=1;

(2)进行数据全量备份

mysqldump -u root -p密码 库名 表名 > XXX.sql

(3)使用scp命令把备份文件传到从库机器,进行数据恢复

scp XXX.sql  从库IP:目录/

stop slave;

mysql -u root -p密码 < XXX.sql

(4)使用 change master to 重新做主从复制

change master to master_host='主库IP', master_port=3306, master_user='用户名',

master_password='密码', master_log_file='二进制文件', master_log_pos=二进制事件位置;

附:二进制文件和二进制事件位置需要在主库查询 show master status; 

start slave;

(5)主库解锁

unlock tables;

set gloabl read_only=0;
  • 17
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值