目录
2.3.1搭建时间同步(主服务器:192.168.59.118)
2.3.2搭建时间同步(从服务器:192.168.59.111、192.168.59.112)
2.3.4配置从服务器(192.168.59.111、192.168.59.112)
2.4搭建Amoeba 实现读写分离(192.168.59.113)
一、MySQL 主从复制
1.1主从复制架构和原理
1.1.1服务性能扩展方式
- 向上扩展,垂直扩展
- 向外扩展,横向扩展
1.2 MySQL的扩展
- 读写分离
- 复制:每个节点都有相同的数据集,向外扩展,基于二进制日志的单向复制
1.2.1什么是读写分离?
1.读写分离基本原理
基本的原理是让主数据库处理事务性增、改、删操作(INSERT、UPDATE、DELETE),而从数据库处理SELECT查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库。
2.MySQL 读写分离原理
读写分离就是只在主服务器上写,只在从服务器上读。基本的原理是让主数据库处理事务性操作,而从数据库处理 select 查询。数据库复制被用来把主数据库上事务性操作导致的变更同步到集群中的从数据库。
- 目前较为常见的 MySQL 读写分离分为以下两种: 1)基于程序代码内部实现
在代码中根据 select、insert 进行路由分类,这类方法也是目前生产环境应用最广泛的。 优点是性能较好,因为在程序代码中实现,不需要增加额外的设备为硬件开支;缺点是需要开发人员来实现,运维人员无从下手。 但是并不是所有的应用都适合在程序代码中实现读写分离,像一些大型复杂的Java应用,如果在程序代码中实现读写分离对代码改动就较大。
2)基于中间代理层实现
代理一般位于客户端和服务器之间,代理服务器接到客户端请求后通过判断后转发到后端数据库,有以下代表性程序。
(1)MySQL-Proxy。MySQL-Proxy 为 MySQL 开源项目,通过其自带的 lua 脚本进行SQL 判断。 (2)Atlas。是由奇虎360的Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间层项目。它是在mysql-proxy 0.8.2版本的基础上,对其进行了优化,增加了一些新的功能特性。360内部使用Atlas运行的mysql业务,每天承载的读写请求数达几十亿条。支持事物以及存储过程。 (3)Amoeba。由陈思儒开发,作者曾就职于阿里巴巴。该程序由Java语言进行开发,阿里巴巴将其用于生产环境。但是它不支持事务和存储过程。
- 由于使用MySQL Proxy 需要写大量的Lua脚本,这些Lua并不是现成的,而是需要自己去写。这对于并不熟悉MySQL Proxy 内置变量和MySQL Protocol 的人来说是非常困难的。
- Amoeba是一个非常容易使用、可移植性非常强的软件。因此它在生产环境中被广泛应用于数据库的代理层。
1.2.2为什么要读写分离
- 因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的。
- 但是数据库的“读”(读10000条数据可能只要5秒钟)。
- 所以读写分离,解决的是,数据库的写入,影响了查询的效率。
1.2.3 什么时候要读写分离
- 数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下会考虑使用。
- 利用数据库主从同步,再通过读写分离可以分担数据库压力,提高性能。
1.2.4 主从复制与读写分离
- 在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求的。无论是在安全性、高可用性还是高并发等各个方面都是完全不能满足实际需求的。
- 因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。有点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysql主从复制是对数据库中的数据、语句做备份。
1.3 复制的功用
- 数据分布
- 负载均衡读操作
- 备份
- 高可用和故障切换
- MySQL升级测试
1.4 复制架构
1.5 主从复制原理
- 从库生成两个线程,一个I/O线程,一个SQL线程;
- i/o线程去请求主库 的binlog,并将得到的binlog日志写到relay log(中继日志) 文件中;
- 主库会唤醒 log dump 线程,用来给从库 i/o线程传binlog;
- SQL 线程,会读取relay log文件中的日志,并解析成具体操作,来实现主从的操作一致,而最终数据一 致;
注:
●中继日志通常会位于 OS 缓存中,所以中继日志的开销很小。
●复制过程有一个很重要的限制,即复制在 Slave上是串行化的,也就是说 Master上的并行更新操作不能在 Slave上并行操作
1.5.1 主从复制相关线程
主节点:
-
dump Thread:为每个Slave的I/O Thread启动一个dump线程,用于向其发送binary log events
从节点:
-
I/O Thread:向Master请求二进制日志事件,并保存于中继日志中
-
SQL Thread:从中继日志中读取日志事件,在本地完成重放
1.5.2 跟复制功能相关的文件
- master.info:用于保存slave连接至master时的相关信息,例如账号、密码、服务器地址等
- relay-log.info:保存在当前slave节点上已经复制的当前二进制日志和本地relay log日志的对应关系
- mariadb-relay-bin.00000#: 中继日志,保存从主节点复制过来的二进制日志,本质就是二进制日志
1.5.3 MySQL 主从复制延迟
- master服务器高并发,形成大量事务
- 网络延迟
- 主从硬件设备导致 cpu主频、内存io、硬盘io
- 本来就不是同步复制、而是异步复制 从库优化Mysql参数。比如增大innodb_buffer_pool_size,让更多操作在Mysql内存中完成,减少磁盘操作。 从库使用高性能主机。包括cpu强悍、内存加大。避免使用虚拟云主机,使用物理主机,这样提升了i/o面性。 从库使用SSD磁盘 网络优化,避免跨机房实现同步
二、实际操作
2.1环境配置
master服务器: 192.168.59.118 mysql5.7
slave1服务器: 192.168.59.111 mysql5.7
slave1服务器: 192.168.59.112
Amoeba服务器: 192.168.59.113 jdk1.6、Amoeba
客户端 服务器: 192.168.59.105 mysql
2.2 初始环境准备
#五台服务器上都初始化
systemctl stop firewalld
setenforce 0
2.3 搭建mysql主从复制
2.3.1搭建时间同步(主服务器:192.168.59.118)
1.#安装时间同步服务器
yum install ntp -y
2.#修改配置文件
vim /etc/ntp.conf
server 127.127.59.0 #设置本地时钟源
fudge 127.127.59.0 stratum 8 #设置时间层级为8 限制在15 以内
3.#开启服务
service ntpd start
1.#安装时间同步服务器
2.修改配置文件
3.#开启服务
2.3.2搭建时间同步(从服务器:192.168.59.111、192.168.59.112)
1.#安装时间同步服务器、同步服务
yum install ntp -y
yum install ntpdate -y
2. #开启服务
service ntpd start
3. #执行同步
/usr/sbin/ntpdate 192.168.59.118
4.#计划定时任务
crontab -e
*/30 * * * * /usr/sbin/ntpdate 192.168.59.118
###########slave2:192.168.59.112与以上操作相同######
1.#安装时间同步服务器、同步服务
2.开启服务
3.#执行同步
4.#计划定时任务
2.3.3配置主服务器(192.168.59.118)
1. #开启二进制日志
vim /etc/my.cnf
log-bin=master-bin #开启二进制日志
binlog_format=MIXED #二进制日志格式
log-slave-updates=true #开启从服务器同步
2. #重启服务
systemctl restart mysqld.service
3. #登入mysql,给从服务器在网段授权
mysql -uroot -p123123
grant replication slave on *.* to 'myslave'@'192.168.59.%' identified by '123123';
#刷新数据库
flush privileges;
#查看主服务器二进制文件
show master status;
开启二进制日志
1 .#开启二进制日志
2.#重启服务
3.#登入mysql,给从服务器在网段授权
2.3.4配置从服务器(192.168.59.111、192.168.59.112)
1.#开启二进制日志
vim /etc/my.cnf
server-id = 11 #slave1和slave2的id不能相同,我slave2设置的22
relay-log=relay-log-bin
relay-log-index=slave-relay-bin.index
2.#重启服务
systemctl restart mysqld.service
3. #登入mysql,配置同步注意master_log_file和master_log_pos的值要和master查询的一致
mysql -uroot -p123123
change master to master_host='192.168.59.118',master_user='myslave',master_password='123123',master_log_file='master-bin.000004',master_log_pos=603;
4.#启动同步,如果报错,执行restart slave试试
start slave;
show slave status\G;
##以下两个必须要是YES
#Slave_IO_Running: Yes
#Slave_SQL_Running: Yes
#########slave2:192.168.59.112与以上操作相同######
1.#开启二进制日志
2.#重启服务
2.3.5 验证主从同步
#在主服务器上创建一个库
create database test_1;
#在从服务器上查看
show databases;
2.4搭建Amoeba 实现读写分离(192.168.59.113)
2.4.1安装 Java 环境
################安装 Java 环境###############
1.#下载安装包:jdk-6u14-linux-x64.bin、amoeba-mysql-binary-2.2.0.tar.gz
cd /opt
2.#把jdk复制到/usr/local下
cp jdk-6u14-linux-x64.bin /usr/local/
3.#赋予jdk权限并执行
chmod +x /usr/local/jdk-6u14-linux-x64.bin
cd /usr/local/
./jdk-6u14-linux-x64.bin #一路回车到底,最后输入yes 自动安装
4.#jdk改个名字
mv jdk1.6.0_14/ jdk1.6
5.#配置环境并刷新
vim /etc/profile
export JAVA_HOME=/usr/local/jdk1.6
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin/:$PATH:$HOME/bin
export AMOEBA_HOME=/usr/local/amoeba
export PATH=$PATH:$AMOEBA_HOME/bin
source /etc/profile #刷新配置文件
1.#下载安装包
2.#把jdk复制到/usr/local下
3.#赋予jdk权限并执行
4.#jdk改个名字
5.#配置环境
2.4.2配置amoeba
############## 安装amoeba ###########
1.#在/usr/local目录下创建amoeba目录
mkdir /usr/local/amoeba
2.#切换至opt解压amoeba
cd /opt/
tar zxvf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba
cd /usr/local/ 切换至目录查看
3.#给目录/usr/local/amoeba赋予执行权限
chmod -R 755 /usr/local/amoeba/
4.#运行amoeba
/usr/local/amoeba/bin/amoeba
###########配置 Amoeba读写分离 ####
5.#先在Master、Slave1mysql上开放权限给 Amoeba 访问
grant all on *.* to test@'192.168.59.%' identified by '123123';
flush privileges;
6.#备份amoeba配置
cd /usr/local/amoeba/conf/
cp amoeba.xml amoeba.xml.bak
cp dbserver.dtd dbserver.dtd.bak
7.#修改amoeba配置
vim amoeba.xml
30 <property name="user">amoeba</property>
#设置登录用户名
32<property name="password">123123</property>
#设置密码
115<property name="defaultPool">master</property>
#设置默认池为master
118<property name="writePool">master</property>
#设置写池
119<property name="readPool">slaves</property>
#设置读池
vim dbServers.xml
23 <!-- <property name="schema">test</property> -->
#23行注释
26<property name="user">test</property>
#设置登录用户
28 <!-- mysql password -->
#删除
29<property name="password">123123</property>
#解决28注释,添加密码
45<dbServer name="master" parent="abstractServer">
#服务池名
48<property name="ipAddress">192.168.59.118</property>
#添加地址
52<dbServer name="slave1" parent="abstractServer">
55<property name="ipAddress">192.168.59.111</property>
复制6行 添加另一从节点
59<dbServer name="slave2" parent="abstractServer">
62<property name="ipAddress">192.168.59.112</property>
66<dbServer name="slaves" virtual="true">
#定义池名
72<property name="poolNames">slave1,slave2</property>
#写上从节点名
8.#启动amoeba,并测试
amoeba start
netstat -ntap |grep java
1.#在/usr/local目录下创建amoeba目录
2.#切换至opt解压amoeba
3.#给目录/usr/local/amoeba赋予执行权限
4.#运行amoeba
5.#先在Master、Slave1mysql上开放权限给 Amoeba 访问
6.#备份amoeba配置
7.#修改配置文件
8.#启动amoeba
2.4.3 在客户端测试(192.168.59.105)
1.#安装mariadb
yum install mariadb mariadb-server.x86_64 -y
2.#登入并查看数据库
mysql -uamoeba -p123123 -h 192.168.59.113 -P8066
3.#测试同步
##在主服务器服务器上新建表
use test1;
create table info(id int(10),name char(40));
show tables;
##在客户机上,插入数据会同步到所有数据库中
use test1;
insert into info values(1,'小明');
##在主从服务器上查看
4.#测试读写分离
#停止slave1和slave2的slave同步功能
stop slave;
#在master、slave1和slave2上插入数据
1.#安装mariadb
2.#登入并查看数据库
3.#测试
#在主服务器服务器上新建表
#在客户机上,插入数据会同步到所有数据库中
##在主从服务器上查看
4.#测试读写分离