0、 分析步骤(***)
慢查询监控
explain计划分析
监控告警
0. 监控告警
cpu飙升排查过程:
使⽤top 命令观察,确定是mysqld导致还是其他原因。
如果是mysqld导致的,show processlist,查看session情况,确定是不是有消耗
资源的sql在运⾏。
找出消耗⾼的 sql,看看执⾏计划是否准确, 索引是否缺失,数据量是否太⼤。
处理:
kill 掉这些线程(同时观察 cpu 使⽤率是否下降),
进⾏相应的调整(⽐如说加索引、改sql、改内存参数)
重新跑这些 SQL。
其他情况:
也有可能是每个 sql 消耗资源并不多,但是突然之间,有⼤量的 session 连进来导致
cpu 飙升,这种情况就需要跟应⽤⼀起来分析为何连接数会激增,再做出相应的调整,
⽐如说限制连接数等
1. 看服务器状态信息
-- Com_语句所执行的次数
show status like ‘Com_%’;
-- 试图连接MySQL服务器的次数
show status like ‘connections’;
-- 显示慢查询次数
show status like ‘slow_queries’;
Com_select, Com_insert, Com_update,Com_delete通过这几个参数,可以容易地了解到当前数据库的
应用是以插入更新为主还是以查询操作为主,以及各类的SQL大致的执行比例是多少。 还有几个常用的参数便于用
户了解数据库的基本情况。
2. 看日志
开启慢日志
分析日志 mysqldumpshow
3. 看锁
有锁,要释放锁
// show processlist命令找出锁表的进程号,然后执行kill 进程号命令,快速结束锁表语句
select * from information_schema.processlist where command not in ('Sleep') ORDER BY time desc
// sql 已经按照阻塞时长从大到小排序,找到耗时长的记录 id ,kill 即可:
kill 16519789
https://blog.csdn.net/qq_44739706/article/details/119978582
https://blog.csdn.net/ZYC88888/article/details/110121016
https://zhuanlan.zhihu.com/p/437702115
https://zhuanlan.zhihu.com/p/379027685
查询正在被阻塞的sql语句
SELECT * FROM information_schema.INNODB_TRX\G;
4. 看sql
字段优化(int, tinyint, varchar, timestamp/datetime)
sql语句优化(左分页,少用join, 其他和索引类型)
索引优化(优化原则 + explain)
单表
关联
order by
group by
limit
distinct
子查询
覆盖索引
5. 引擎选择,myql调参,升级硬件
6. 读写分离
7. 缓存
8. 分区 分表 分库 分库分表(分片) gorm/sharding mycat
当MySQL单表记录数过大时,增删改查性能都会急剧下降,所以我们本文会提供一些优化参考,大家可以参考以下步骤来优化:
一、单表优化(***)
除非单表数据未来会一直不断上涨,否则不要一开始就考虑拆分,拆分会带来逻辑、部署、运维的各种复杂度。一般以整型值为主的表在千万级以下,字符串为主的表在五百万以下是没有太大问题的,而事实上很多时候MySQL单表的性能依然有不少优化空间,甚至能正常支撑千万级以上的数据量。
1. 字段(数据库设计)
-
尽量使用TINYINT、SMALLINT、MEDIUM_INT作为整数类型而非INT,如果非负则加上UNSIGNED; int(2) 和 int(11)么有区别
-
VARCHAR的长度只分配真正需要的空间; 最多767
-
使用枚举(尽量不用, 会有其他问题)或 整数代替字符串 类型; 用整型来存IP。
-
尽量使用TIMESTAMP而非DATETIME;
-
timestamp utc问题 4个字节 相差运算,直接计算即可
-
datetime 8个字节 相差运算,还要自己做转换
-
MySQL 中 datetime 和 timestamp 的区别与选择 - 腾讯云开发者社区-腾讯云 (tencent.com)
-
如果在时间上要超过Linux时间的,或者服务器时区不一样的就建议选择 datetime。
如果是想要使用自动插入时间或者自动更新时间功能的,可以使用timestamp。
如果只是想表示年、日期、时间的还可以使用 year、 date、 time,它们分别占据 1、3、3 字节,而datetime就是它们的集合。
-
-
单表不要有太多字段,建议在20以内;
-
避免使用NULL字段,很难查询优化且占用额外索引空间; (不是必须)
2. 查询SQL
可通过开启慢查询日志来找出较慢的SQL
- 不做列运算:SELECT id WHERE age + 1 = 10,任何对列的操作都将导致表扫描,它包括数据库教程函数、计算表达式等等,查询时要尽可能将操作移至等号右边;
- sql语句尽可能简单:一条sql只能在一个cpu运算;大语句拆小语句,减少锁时间;一条大sql可以堵死整个库;
- **不用SELECT ***;
- 避免%xxx式查询;
- 少用JOIN;
- 使用同类型进行比较,比如用’123’和’123’比,123和123比;
- 尽量避免在WHERE子句中使用!=或<>操作符,否则将引擎放弃使用索引而进行全表扫描;
- OR改写成IN:OR的效率是n级别,IN的效率是log(n)级别,IN的个数建议控制在200以内;
- 对于连续数值,使用BETWEEN 不用 IN:SELECT id FROM t WHERE num BETWEEN 1 AND 5;
- 列表数据不要拿全表,要使用LIMIT来分页,每页数量也不要太大。
- 不用函数和触发器,在应用程序实现;
3. 索引优化
- 索引并不是越多越好,要根据查询有针对性的创建,考虑在WHERE和ORDER BY命令上涉及的列建立索引,可根据EXPLAIN来查看是否用了索引还是全表扫描;
- 应尽量避免在WHERE子句中对字段进行NULL值判断,否则将导致引擎放弃使用索引而进行全表扫描;
- 应尽量避免在值分布很稀少的字段建索引,例如“性别”这种只有两三个值的字段;
- 使用多列索引(联合索引,组合索引)时注意顺序和查询条件保持一致,同时删除不必要的单列索引;
- 字符字段只建前缀索引;
- 字符字段最好不要做主键;
- 不用外键,由程序保证约束;
- 尽量不用UNIQUE,由程序保证约束;
版本二:
- 全值匹配
- 最左前缀(包括范围右边的列)
- 不在索引列上做计算,函数, 类型转换等任何操作
- 尽量使用覆盖索引
- 不使用 != 等
- is not null 不要用(is null是可以使用索引的)
- like
- like ‘%abc%’ type 类型会变成 all
- like ‘abc%’ type 类型为 range ,算是范围,可以使用索引
- 字符串加单引号(字符串不加单引号索引失效 行锁变表锁)
- 少用or
4. 引擎
目前广泛使用的是MyISAM和InnoDB两种引擎:
MyISAM
MyISAM引擎是MySQL 5.1及之前版本的默认引擎,它的特点是:
- 不支持行锁,读取时对需要读到的所有表加锁,写入时则对表加排它锁;
- 不支持事务;
- 不支持外键;
- 不支持崩溃后的安全恢复;
- 在表有读取查询的同时,支持往表中插入新纪录;
- 支持BLOB和TEXT的前500个字符索引,支持全文索引;
- 支持延迟更新索引,极大提升写入性能;
- 对于不会进行修改的表,支持压缩表,极大减少磁盘空间占用。
InnoDB
InnoDB在MySQL 5.5后成为默认索引,它的特点是:
- 支持行锁,采用MVCC来支持高并发;
- 支持事务;
- 支持外键;
- 支持崩溃后的安全恢复;
- 不支持全文索引。
ps: 据说InnoDB已经在MySQL 5.6.4支持全文索引了
总体来讲,MyISAM适合SELECT密集型的表,而InnoDB适合INSERT和UPDATE密集型的表。
5. 高级技巧
缓存优化
连接池优化
硬件和配置优化
6. 配置参数调优
一文搞定MySQL性能调优 - 简书 (jianshu.com)
MySql性能调优:实用的实践与策略_MySQL_xfgg_InfoQ写作社区
MySQL调优指南(持续更新)-阿里云开发者社区 (aliyun.com)
常用的几个配置:
innodb_buffer_pool_size = 2G # InnoDB缓冲池大小
innodb_log_buffer_size = 64M # InnoDB的log buffer,通常设置为 64MB 就足够了
innodb_log_file_size # redo log 大小,假如server当机。须要 10 分钟来恢复
这个选项和写磁盘操作密切相关:
innodb_flush_log_at_trx_commit = 1 每次改动写入磁盘
innodb_flush_log_at_trx_commit = 0/2 每秒写入磁盘
假设你的应用不涉及非常高的安全性 (金融系统),或者基础架构足够安全,或者 事务都非常小,都能够用 0 或者 2 来减少磁盘操作。
query_cache_size = 64M # 查询缓存大小
key_buffer_size # 索引块的大小
max_connections = 500 # 最大连接数
max_user_connections=400 # 最大用户连接数
wait_timeout: 数据库连接闲置时间,闲置连接会占用内存资源。可以从默认的8小时减到半小时。
thread_concurrency:并发线程数,设为CPU核数的两倍。
read_buffer_size: 全表扫描时为查询预留的缓冲大小,根据select_scan判断。
max_heap_table_size = 100M
tmp_table_size : 临时内存表的设置,如果超过设置就会转化成磁盘表, 根据参数(created_tmp_disk_tables)判断。
全量配置:
#基础配置
datadir=/data/datafile
socket=/var/lib/mysql/mysql.sock
log-error=/data/log/mysqld.log
pid-file=/var/run/mysqld/mysqld.pid
character_set_server=utf8
#允许任意IP访问
bind-address = 0.0.0.0
#是否支持符号链接,即数据库或表可以存储在my.cnf中指定datadir之外的分区或目录,为0不开启
#symbolic-links=0
#支持大小写
lower_case_table_names=1
#二进制配置
server-id = 1
log-bin = /data/log/mysql-bin.log
log-bin-index =/data/log/binlog.index
log_bin_trust_function_creators=1
expire_logs_days=7
#sql_mode定义了mysql应该支持的sql语法,数据校验等
#mysql5.0以上版本支持三种sql_mode模式:ANSI、TRADITIONAL和STRICT_TRANS_TABLES。
#ANSI模式:宽松模式,对插入数据进行校验,如果不符合定义类型或长度,对数据类型调整或截断保存,报warning警告。
#TRADITIONAL模式:严格模式,当向mysql数据库插入数据时,进行数据的严格校验,保证错误数据不能插入,报error错误。用于事物时,会进行事物的回滚。
#STRICT_TRANS_TABLES模式:严格模式,进行数据的严格校验,错误数据不能插入,报error错误。
sql_mode=STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,NO_AUTO_CREATE_USER,NO_ENGINE_SUBSTITUTION
#InnoDB存储数据字典、内部数据结构的缓冲池,16MB已经足够大了。
innodb_additional_mem_pool_size = 16M
#InnoDB用于缓存数据、索引、锁、插入缓冲、数据字典等
#如果是专用的DB服务器,且以InnoDB引擎为主的场景,通常可设置物理内存的60%
#如果是非专用DB服务器,可以先尝试设置成内存的1/4
innodb_buffer_pool_size = 4G
#InnoDB的log buffer,通常设置为 64MB 就足够了
innodb_log_buffer_size = 64M
#InnoDB redo log大小,通常设置256MB 就足够了
innodb_log_file_size = 256M
#InnoDB redo log文件组,通常设置为 2 就足够了
innodb_log_files_in_group = 2
#共享表空间:某一个数据库的所有的表数据,索引文件全部放在一个文件中,默认这个共享表空间的文件路径在data目录下。默认的文件名为:ibdata1 初始化为10M。
#独占表空间:每一个表都将会生成以独立的文件方式来进行存储,每一个表都有一个.frm表描述文件,还有一个.ibd文件。其中这个文件包括了单独一个表的数据内容以及索引内容,默认情况下它的存储位置也是在表的位置之中。
#设置参数为1启用InnoDB的独立表空间模式,便于管理
innodb_file_per_table = 1
#InnoDB共享表空间初始化大小,默认是 10MB,改成 1GB,并且自动扩展
innodb_data_file_path = ibdata1:1G:autoextend
#设置临时表空间最大4G
innodb_temp_data_file_path=ibtmp1:500M:autoextend:max:4096M
#启用InnoDB的status file,便于管理员查看以及监控
innodb_status_file = 1
#当设置为0,该模式速度最快,但不太安全,mysqld进程的崩溃会导致上一秒钟所有事务数据的丢失。
#当设置为1,该模式是最安全的,但也是最慢的一种方式。在mysqld 服务崩溃或者服务器主机crash的情况下,binary log 只有可能丢失最多一个语句或者一个事务。
#当设置为2,该模式速度较快,也比0安全,只有在操作系统崩溃或者系统断电的情况下,上一秒钟所有事务数据才可能丢失。
innodb_flush_log_at_trx_commit = 1
#设置事务隔离级别为 READ-COMMITED,提高事务效率,通常都满足事务一致性要求
#transaction_isolation = READ-COMMITTED
#max_connections:针对所有的账号所有的客户端并行连接到MYSQL服务的最大并行连接数。简单说是指MYSQL服务能够同时接受的最大并行连接数。
#max_user_connections : 针对某一个账号的所有客户端并行连接到MYSQL服务的最大并行连接数。简单说是指同一个账号能够同时连接到mysql服务的最大连接数。设置为0表示不限制。
#max_connect_errors:针对某一个IP主机连接中断与mysql服务连接的次数,如果超过这个值,这个IP主机将会阻止从这个IP主机发送出去的连接请求。遇到这种情况,需执行flush hosts。
#执行flush host或者 mysqladmin flush-hosts,其目的是为了清空host cache里的信息。可适当加大,防止频繁连接错误后,前端host被mysql拒绝掉
#在 show global 里有个系统状态Max_used_connections,它是指从这次mysql服务启动到现在,同一时刻并行连接数的最大值。它不是指当前的连接情况,而是一个比较值。如果在过去某一个时刻,MYSQL服务同时有10
00个请求连接过来,而之后再也没有出现这么大的并发请求时,则Max_used_connections=1000.请注意与show variables 里的max_user_connections的区别。#Max_used_connections / max_connections * 100% ≈ 85%
max_connections=600
max_connect_errors=1000
max_user_connections=400
#设置临时表最大值,这是每次连接都会分配,不宜设置过大 max_heap_table_size 和 tmp_table_size 要设置一样大
max_heap_table_size = 100M
tmp_table_size = 100M
#每个连接都会分配的一些排序、连接等缓冲,一般设置为 2MB 就足够了
sort_buffer_size = 2M
join_buffer_size = 2M
read_buffer_size = 2M
read_rnd_buffer_size = 2M
#建议关闭query cache,有些时候对性能反而是一种损害
query_cache_size = 0
#如果是以InnoDB引擎为主的DB,专用于MyISAM引擎的 key_buffer_size 可以设置较小,8MB 已足够
#如果是以MyISAM引擎为主,可设置较大,但不能超过4G
key_buffer_size = 8M
#设置连接超时阀值,如果前端程序采用短连接,建议缩短这2个值,如果前端程序采用长连接,可直接注释掉这两个选项,是用默认配置(8小时)
#interactive_timeout = 120
#wait_timeout = 120
#InnoDB使用后台线程处理数据页上读写I/0请求的数量,允许值的范围是1-64
#假设CPU是2颗4核的,且数据库读操作比写操作多,可设置
#innodb_read_io_threads=5
#innodb_write_io_threads=3
#通过show engine innodb status的FILE I/O选项可查看到线程分配
#设置慢查询阀值,单位为秒
long_query_time = 120
#开启mysql慢sql的日志
slow_query_log=1
#日志输出会写表,也会写日志文件,为了便于程序去统计,所以最好写表
log_output=table,File
slow_query_log_file=/data/log/slow.log
##针对log_queries_not_using_indexes开启后,记录慢sql的频次、每分钟记录的条数
#log_throttle_queries_not_using_indexes = 5
##作为从库时生效,从库复制中如何有慢sql也将被记录
#log_slow_slave_statements = 1
##检查未使用到索引的sql
#log_queries_not_using_indexes = 1
#快速预热缓冲池
innodb_buffer_pool_dump_at_shutdown=1
innodb_buffer_pool_load_at_startup=1
#打印deadlock日志
innodb_print_all_deadlocks=1
可以使用下面几个工具来做基准测试:
-
**sysbench:**一个模块化,跨平台以及多线程的性能测试工具。
https://github.com/akopytov/sysbench
-
**iibench-mysql:**基于Java的MySQL / Percona / MariaDB 索引进行插入性能测试工具。
https://github.com/tmcallaghan/iibench-mysql
-
**tpcc-mysql:**Percona开发的TPC-C测试工具。
https://github.com/Percona-Lab/tpcc-mysql
具体的调优参数内容较多,具体可参考官方文档,这里介绍一些比较重要的参数:
-
**back_log:**back_log值可以指出在MySQL暂时停止回答新请求之前的短时间内多少个请求可以被存在堆栈中。也就是说,如果MySQL的连接数据达到max_connections时,新来的请求将会被存在堆栈中,以等待某一连接释放资源,该堆栈的数量即back_log,如果等待连接的数量超过back_log,将不被授予连接资源。可以从默认的50升至500。
-
**wait_timeout:**数据库连接闲置时间,闲置连接会占用内存资源。可以从默认的8小时减到半小时。
-
**max_connection:**最大连接数,默认为0无上限,最好设一个合理上限。
-
**max_user_connection:**每个数据库用户的最大连接。
-
**thread_concurrency:**并发线程数,设为CPU核数的两倍。
-
skip_name_resolve:禁止对外部连接进行DNS解析,消除DNS解析时间,但需要所有远程主机用IP访问。 此时不能使用域名解析
-
**key_buffer_size:**索引块的缓存大小,增加会提升索引处理速度,对MyISAM表性能影响最大。对于内存4G左右,可设为256M或384M,通过查询show status like ‘key_read%’,保证key_reads / key_read_requests在0.1%以下最好。
-
**innodb_buffer_pool_size:**缓存数据块和索引块,对InnoDB表性能影响最大。通过查询show status like ‘Innodb_buffer_pool_read%’,保证 (Innodb_buffer_pool_read_requests – Innodb_buffer_pool_reads) / Innodb_buffer_pool_read_requests越高越好。
-
innodb_additional_mem_pool_size:InnoDB存储引擎用来存放数据字典信息以及一些内部数据结构的内存空间大小,当数据库对象非常多的时候,适当调整该参数的大小以确保所有数据都能存放在内存中提高访问效率,当过小的时候,MySQL会记录Warning信息到数据库的错误日志d 中,这时就需要该调整这个参数大小。
-
**innodb_log_buffer_size:**InnoDB存储引擎的事务日志所使用的缓冲区,一般来说不建议超过32MB。
-
**query_cache_size:**缓存MySQL中的ResultSet,也就是一条SQL语句执行的结果集,所以仅仅只能针对select语句。当某个表的数据有任何任何变化,都会导致所有引用了该表的select语句在Query Cache中的缓存数据失效。所以,当我们数据变化非常频繁的情况下,使用Query Cache可能得不偿失。根据命中率(Qcache_hits/(Qcache_hits+Qcache_inserts)*100))进行调整,一般不建议太大,256MB可能已经差不多了,大型的配置型静态数据可适当调大。可以通过命令show status like 'Qcache_%'查看目前系统Query catch使用大小。
-
**read_buffer_size:**MySQL读入缓冲区大小。对表进行顺序扫描的请求将分配一个读入缓冲区,MySQL会为它分配一段内存缓冲区。如果对表的顺序扫描请求非常频繁,可以通过增加该变量值以及内存缓冲区大小提高其性能。
-
**sort_buffer_size:**MySQL执行排序使用的缓冲大小。如果想要增加ORDER BY的速度,首先看是否可以让MySQL使用索引而不是额外的排序阶段。如果不能,可以尝试增加sort_buffer_size变量的大小。
-
**read_rnd_buffer_size:**MySQL的随机读缓冲区大小。当按任意顺序读取行时(例如按照排序顺序),将分配一个随机读缓存区。进行排序查询时,MySQL会首先扫描一遍该缓冲,以避免磁盘搜索,提高查询速度,如果需要排序大量数据,可适当调高该值。但MySQL会为每个客户连接发放该缓冲空间,所以应尽量适当设置该值,以避免内存开销过大。
-
**record_buffer:**每个进行一个顺序扫描的线程为其扫描的每张表分配这个大小的一个缓冲区。如果你做很多顺序扫描,可能想要增加该值。
-
**thread_cache_size:**保存当前没有与连接关联但是准备为后面新的连接服务的线程,可以快速响应连接的线程请求而无需创建新的。
-
**table_cache:**类似于thread_cache _size,但用来缓存表文件,对InnoDB效果不大,主要用于MyISAM。
7. 内核参数调优
以下参数可以直接放到/etc/sysctl.conf文件的末尾。
1.增加监听队列上限:
net.core.somaxconn = 65535
net.core.netdev_max_backlog = 65535
net.ipv4.tcp_max_syn_backlog = 65535
2.加快TCP连接的回收:
net.ipv4.tcp_fin_timeout = 10
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
3.TCP连接接收和发送缓冲区大小的默认值和最大值:
net.core.wmem_default = 87380
net.core.wmem_max = 16777216
net.core.rmem_default = 87380
net.core.rmem_max = 16777216
4.减少失效连接所占用的TCP资源的数量,加快资源回收的效率:
net.ipv4.tcp_keepalive_time = 120
net.ipv4.tcp_keepalive_intvl = 30
net.ipv4.tcp_keepalive_probes = 3
5.单个共享内存段的最大值:
kernel.shmmax = 4294967295
这个参数应该设置的足够大,以便能在一个共享内存段下容纳整个的Innodb缓冲池的大小。
这个值的大小对于64位linux系统,可取的最大值为(物理内存值-1)byte,建议值为大于物理内存的一半,一般取值大于Innodb缓冲池的大小即可。
6.控制换出运行时内存的相对权重:
vm.swappiness = 0
这个参数当内存不足时会对性能产生比较明显的影响。(设置为0,表示Linux内核虚拟内存完全被占用,才会要使用交换区。)
Linux系统内存交换区:
在Linux系统安装时都会有一个特殊的磁盘分区,称之为系统交换分区。
使用 free -m 命令可以看到swap就是内存交换区。
作用:当操作系统没有足够的内存时,就会将部分虚拟内存写到磁盘的交换区中,这样就会发生内存交换。
如果Linux系统上完全禁用交换分区,带来的风险:
降低操作系统的性能
容易造成内存溢出,崩溃,或都被操作系统kill掉
作者:全菜工程师小辉
链接:https://www.jianshu.com/p/fc74e946729b
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
7. 增加资源限制(/etc/security/limit.conf)
打开文件数的限制(以下参数可以直接放到limit.conf文件的末尾):
* soft nofile 65535
* hard nofile 65535
*:表示对所有用户有效
soft:表示当前系统生效的设置(soft不能大于hard )
hard:表明系统中所能设定的最大值
nofile:表示所限制的资源是打开文件的最大数目
65535:限制的数量
以上两行配置将可打开的文件数量增加到65535个,以保证可以打开足够多的文件句柄。
注意:这个文件的修改需要重启系统才能生效。
作者:全菜工程师小辉
链接:https://www.jianshu.com/p/fc74e946729b
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
8. 升级硬件
Scale up,这个不多说了,根据MySQL是CPU密集型还是I/O密集型,通过提升CPU和内存、使用SSD,都能显著提升MySQL性能。
二、读写分离
也是目前常用的优化,从库读主库写,一般不要采用双主或多主引入很多复杂性,尽量采用文中的其他方案来提高性能。同时目前很多拆分的解决方案同时也兼顾考虑了读写分离。
三、缓存
缓存可以发生在这些层次:
- **MySQL内部:**在系统调优参数介绍了相关设置;
- **数据访问层:**比如MyBatis针对SQL语句做缓存,而Hibernate可以精确到单个记录,这里缓存的对象主要是持久化对象Persistence Object;
- **应用服务层:**可以通过编程手段对缓存做到更精准的控制和更多的实现策略,这里缓存的对象是数据传输对象Data Transfer Object;
- **Web层:**针对web页面做缓存;
- **浏览器客户端:**用户端的缓存。
可以根据实际情况在一个层次或多个层次结合加入缓存。这里重点介绍下服务层的缓存实现,目前主要有两种方式:
- **直写式(Write Through):**在数据写入数据库后,同时更新缓存,维持数据库与缓存的一致性。这也是当前大多数应用缓存框架如Spring Cache的工作方式。这种实现非常简单,同步好,但效率一般。
- **回写式(Write Back):**当有数据要写入数据库时,只会更新缓存,然后异步批量的将缓存数据同步到数据库上。这种实现比较复杂,需要较多的应用逻辑,同时可能会产生数据库与缓存的不同步,但效率非常高。
四、分区
MySQL在5.1版引入的分区是一种简单的水平拆分,用户需要在建表的时候加上分区参数,对应用是透明的无需修改代码。
对用户来说,分区表是一个独立的逻辑表,但是底层由多个物理子表组成,实现分区的代码实际上是通过对一组底层表的对象封装,但对SQL层来说是一个完全封装底层的黑盒子。MySQL实现分区的方式也意味着索引也是按照分区的子表定义,没有全局索引。
用户的SQL语句是需要针对分区表做优化,SQL条件中要带上分区条件的列,从而使查询定位到少量的分区上,否则就会扫描全部分区,可以通过EXPLAIN PARTITIONS来查看某条SQL语句会落在那些分区上,从而进行SQL优化,如下图5条记录落在两个分区上:
mysql> explain partitions select count(1) from user_partition where id in (1,2,3,4,5);
±—±------------±---------------±-----------±------±--------------±--------±--------±-----±-----±-------------------------+
| id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | Extra |
±—±------------±---------------±-----------±------±--------------±--------±--------±-----±-----±-------------------------+
| 1 | SIMPLE | user_partition | p1,p4 | range | PRIMARY | PRIMARY | 8 | NULL | 5 | Using where; Using index |
±—±------------±---------------±-----------±------±--------------±--------±--------±-----±-----±-------------------------+
1 row in set (0.00 sec)
分区的好处是:
- 可以让单表存储更多的数据;
- 分区表的数据更容易维护,可以通过清楚整个分区批量删除大量数据,也可以增加新的分区来支持新插入的数据,另外,还可以对一个独立分区进行优化、检查、修复等操作;
- 部分查询能够从查询条件确定只落在少数分区上,速度会很快;
- 分区表的数据还可以分布在不同的物理设备上,从而搞笑利用多个硬件设备;
- 可以使用分区表赖避免某些特殊瓶颈,例如InnoDB单个索引的互斥访问、ext3文件系统的inode锁竞争;
- 可以备份和恢复单个分区。
分区的限制和缺点:
- 一个表最多只能有1024个分区;
- 如果分区字段中有主键或者唯一索引的列,那么所有主键列和唯一索引列都必须包含进来;
- 分区表无法使用外键约束;
- NULL值会使分区过滤无效;
- 所有分区必须使用相同的存储引擎。
分区的类型:
- **RANGE分区:**基于属于一个给定连续区间的列值,把多行分配给分区。
- **LIST分区:**类似于按RANGE分区,区别在于LIST分区是基于列值匹配一个离散值集合中的某个值来进行选择。
- **HASH分区:**基于用户定义的表达式的返回值来进行选择的分区,该表达式使用将要插入到表中的这些行的列值进行计算。这个函数可以包含MySQL中有效的、产生非负整数值的任何表达式。
- **KEY分区:**类似于按HASH分区,区别在于KEY分区只支持计算一列或多列,且MySQL服务器提供其自身的哈希函数。必须有一列或多列包含整数值。
分区适合的场景有:
- 最适合的场景数据的时间序列性比较强,则可以按时间来分区,如下所示:
CREATE TABLE members (
firstname VARCHAR(25) NOT NULL,
lastname VARCHAR(25) NOT NULL,
username VARCHAR(16) NOT NULL,
email VARCHAR(35),
joined DATE NOT NULL
)PARTITION BY RANGE( YEAR(joined) ) (
PARTITION p0 VALUES LESS THAN (1960),
PARTITION p1 VALUES LESS THAN (1970),
PARTITION p2 VALUES LESS THAN (1980),
PARTITION p3 VALUES LESS THAN (1990),
PARTITION p4 VALUES LESS THAN MAXVALUE
);
查询时加上时间范围条件效率会非常高,同时对于不需要的历史数据能很容的批量删除。
- 如果数据有明显的热点,而且除了这部分数据,其他数据很少被访问到,那么可以将热点数据单独放在一个分区,让这个分区的数据能够有机会都缓存在内存中,查询时只访问一个很小的分区表,能够有效使用索引和缓存。
另外MySQL有一种早期的简单的分区实现 - 合并表(merge table),限制较多且缺乏优化,不建议使用,应该用新的分区机制来替代。
五、分表(垂直拆分)
大表拆小表
垂直分库是根据数据库里面的数据表的相关性进行拆分,比如:一个数据库里面既存在用户数据,又存在订单数据,那么垂直拆分可以把用户数据放到用户库、把订单数据放到订单库。
垂直分表是对数据表进行垂直拆分的一种方式,常见的是把一个多字段的大表按常用字段和非常用字段进行拆分,每个表里面的数据记录数一般情况下是相同的,只是字段不一样,使用主键关联。
比如原始的用户表是:
垂直拆分后是:
垂直拆分的优点是:
- 可以使得行数据变小,一个数据块(Block)就能存放更多的数据,在查询时就会减少I/O次数(每次查询时读取的Block 就少);
- 可以达到最大化利用Cache的目的,具体在垂直拆分的时候可以将不常变的字段放一起,将经常改变的放一起;
- 数据维护简单。
缺点是:
- 主键出现冗余,需要管理冗余列;
- 会引起表连接JOIN操作(增加CPU开销)可以通过在业务服务器上进行join来减少数据库压力;
- 依然存在单表数据量过大的问题(需要水平拆分)。
- 事务处理复杂。
六、分片(水平拆分)
1
概述
水平拆分是通过某种策略将数据分片来存储,又包括分表和分库两部分,每片数据会分散到不同的MySQL表或库,达到分布式的效果,能够支持非常大的数据量。前面的表分区本质上也是一种特殊的库内分表。
库内分表,仅仅是单纯的解决了单一表数据过大的问题,由于没有把表的数据分布到不同的机器上,因此对于减轻MySQL服务器的压力来说,并没有太大的作用,大家还是竞争同一个物理机上的IO、CPU、网络,这个就要通过分库来解决。
前面垂直拆分的用户表如果进行水平拆分,结果是:
实际情况中往往会是垂直拆分和水平拆分的结合,即将Users_A_M和Users_N_Z再拆成Users和UserExtras,这样一共四张表。
水平拆分的优点是:
- 不存在单库大数据和高并发的性能瓶颈;
- 应用端改造较少;
- 提高了系统的稳定性和负载能力。
缺点是:
- 分片事务一致性难以解决;
- 跨节点Join性能差,逻辑复杂;
- 数据多次扩展难度跟维护量极大。
2
分片原则
- 能不分就不分,参考单表优化;
- 分片数量尽量少,分片尽量均匀分布在多个数据结点上,因为一个查询SQL跨分片越多,则总体性能越差,虽然要好于所有数据在一个分片的结果,只在必要的时候进行扩容,增加分片数量;
- 分片规则需要慎重选择做好提前规划,分片规则的选择,需要考虑数据的增长模式,数据的访问模式,分片关联性问题,以及分片扩容问题,最近的分片策略为范围分片,枚举分片,一致性Hash分片,这几种分片都有利于扩容;
- 尽量不要在一个事务中的SQL跨越多个分片,分布式事务一直是个不好处理的问题;
- 查询条件尽量优化,尽量避免Select * 的方式,大量数据结果集下,会消耗大量带宽和CPU资源,查询尽量避免返回大量结果集,并且尽量为频繁使用的查询语句建立索引;
- 通过数据冗余和表分区赖降低跨库Join的可能。
这里特别强调一下分片规则的选择问题,如果某个表的数据有明显的时间特征,比如订单、交易记录等,则他们通常比较合适用时间范围分片,因为具有时效性的数据,我们往往关注其近期的数据,查询条件中往往带有时间字段进行过滤,比较好的方案是,当前活跃的数据,采用跨度比较短的时间段进行分片,而历史性的数据,则采用比较长的跨度存储。
总体上来说,分片的选择是取决于最频繁的查询SQL的条件,因为不带任何Where语句的查询SQL,会遍历所有的分片,性能相对最差,因此这种SQL越多,对系统的影响越大,所以我们要尽量避免这种SQL的产生。
3
解决方案
由于水平拆分牵涉的逻辑比较复杂,当前也有了不少比较成熟的解决方案。这些方案分为两大类:客户端架构和代理架构。
客户端架构
通过修改数据访问层,如JDBC、Data Source、MyBatis,通过配置来管理多个数据源,直连数据库,并在模块内完成数据的分片整合,一般以Jar包的方式呈现。
这是一个客户端架构的例子:
可以看到分片的实现是和应用服务器在一起的,通过修改Spring JDBC层来实现。
客户端架构的优点是:
- 应用直连数据库,降低外围系统依赖所带来的宕机风险;
- 集成成本低,无需额外运维的组件。
缺点是:
- 限于只能在数据库访问层上做文章,扩展性一般,对于比较复杂的系统可能会力不从心;
- 将分片逻辑的压力放在应用服务器上,造成额外风险。
代理架构
通过独立的中间件(比如Mycat)来统一管理所有数据源和数据分片整合,后端数据库集群对前端应用程序透明,需要独立部署和运维代理组件。
这是一个代理架构的例子:
代理组件为了分流和防止单点,一般以集群形式存在,同时可能需要Zookeeper之类的服务组件来管理。
代理架构的优点是:
- 能够处理非常复杂的需求,不受数据库访问层原来实现的限制,扩展性强;
- 对于应用服务器透明且没有增加任何额外负载。
缺点是:
- 需部署和运维独立的代理中间件,成本高;
- 应用需经过代理来连接数据库,网络上多了一跳,性能有损失且有额外风险。
目前来说,业界还是有很多的方案可供选择,但应该如何进行选择?我认为,可以按以下思路来考虑:
- 确定是使用代理架构还是客户端架构。中小型规模或是比较简单的场景倾向于选择客户端架构,复杂场景或大规模系统倾向选择代理架构。
- 具体功能是否满足,比如需要跨节点ORDER BY,那么支持该功能的优先考虑。
- 不考虑一年内没有更新的产品,说明开发停滞,甚至无人维护和技术支持。
- 最好按大公司→社区→小公司→个人这样的出品方顺序来选择。
- 选择口碑较好的,比如github星数、使用者数量质量和使用者反馈。
的宕机风险; - 集成成本低,无需额外运维的组件。
缺点是:
- 限于只能在数据库访问层上做文章,扩展性一般,对于比较复杂的系统可能会力不从心;
- 将分片逻辑的压力放在应用服务器上,造成额外风险。
代理架构
通过独立的中间件(比如Mycat)来统一管理所有数据源和数据分片整合,后端数据库集群对前端应用程序透明,需要独立部署和运维代理组件。
这是一个代理架构的例子:
[外链图片转存中…(img-yabpPFXu-1726622790545)]
代理组件为了分流和防止单点,一般以集群形式存在,同时可能需要Zookeeper之类的服务组件来管理。
代理架构的优点是:
- 能够处理非常复杂的需求,不受数据库访问层原来实现的限制,扩展性强;
- 对于应用服务器透明且没有增加任何额外负载。
缺点是:
- 需部署和运维独立的代理中间件,成本高;
- 应用需经过代理来连接数据库,网络上多了一跳,性能有损失且有额外风险。
目前来说,业界还是有很多的方案可供选择,但应该如何进行选择?我认为,可以按以下思路来考虑:
- 确定是使用代理架构还是客户端架构。中小型规模或是比较简单的场景倾向于选择客户端架构,复杂场景或大规模系统倾向选择代理架构。
- 具体功能是否满足,比如需要跨节点ORDER BY,那么支持该功能的优先考虑。
- 不考虑一年内没有更新的产品,说明开发停滞,甚至无人维护和技术支持。
- 最好按大公司→社区→小公司→个人这样的出品方顺序来选择。
- 选择口碑较好的,比如github星数、使用者数量质量和使用者反馈。
- 开源的优先,往往项目有特殊需求可能需要改动源代码。