MySQL详解

逻辑架构

主要分为:连接层,服务层,引擎层,存储层。

客户端执行一条select命令的流程如下:

请添加图片描述

  • 连接层:最上层是一些客户端和连接服务,包含本地sock通信和大多数基于客户端/服务端工具实现的类似于tcplip的通信。主要完成一些类似于连接处理、授权认证、及相关的安全方案。在该层上引入了线程池的概念,为通过认证安全接入的客户端提供线程。同样在该层上可以实现基于SSL的安全链接。服务器也会为安全接入的每个客户端验证它所具有的操作权限。
  • 服务层:第二层架构主要完成大多少的核心服务功能,如SQL接口,并完成缓存的查询,SQL的分析和优化及部分内置函数的执行。所有跨存储引擎的功能也在这一层实现,如过程、函数等。在该层,服务器会解析查询并创建相应的内部解析树,并对其完成相应的优化如确定查询表的顺序是否利用索引等,最后生成相应的执行操作。如果是select语句,服务器还会查询内部的缓存。如果缓存空间足够大,这样在解决大量读操作的环境中能够很好的提升系统的性能。
  • 引擎层:存储引擎层,存储引擎真正的负责了MySQL中数据的存储和提取,服务器通过API与存储引擎进行通信。不同的存储引擎具有的功能不同这样我们可以根据自己的实际需要进行选取,后面介绍MyISAM和InnoDB。
  • 存储层:数据存储层,主要是将数据存储在运行于裸设备的文件系统之上,并完成与存储引擎的交互。

其中比较重要的就要说存储引擎了,MySql默认使用的存储引擎是InnoDB,可以使用相关命令来查看:

 show engines;

如果查看当前使用的存储引擎可以使用命令:

 show variables like '%storage_engine%';

在创建数据库的时候可以指定存储引擎:

 CREATE TABLE tbl_emp (
	id INT(11) NOT NULL AUTO_INCREMENT,
	NAME VARCHAR(20) DEFAULT NULL,
	deptId INT(11) DEFAULT NULL,
	PRIMARY KEY (id)
 )ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;

SQL优化

参考文章:

  • https://www.hollischuang.com/archives/6330
  • https://dev.mysql.com/doc/refman/8.0/en/using-explain.html

为什么要进行SQL优化?

  • SQL语句欠佳、执行过程耗时较长;
  • 索引失效;

想要进行SQL优化首先要弄懂SQL编写过程和SQL执行过程是存在区别的:

  • SQL编写过程:
 select distinct .. from .. join .. on .. where .. group by .. having .. order by .. limit ..
  • SQL执行过程:
 from .. on .. join ..  where .. group by .. having .. select distinct .. order by .. limit ..

之所以SQL的编写过程会和执行过程有区别,是因为Mysql中有专门负责优化SELECT语句的优化器模块。

MySQL Query Optimizer:MySql查询优化器,主要功能:通过计算分析系统中收集到的统计信息,为客户端请求的Query提供MySql认为最优的执行计划。

当客户端向MySQL请求一条Query,命令解析器模块完成请求分类,区别出是SELECT并转发给MySQL Query Optimizer时,MySQL Query Optimizer首先会对整条Query进行优化,处理掉一些常量表达式的预算直接换算成常量值。

并对Query中的查询条件进行简化和转换,如去掉一些无用或显而易见的条件、结构调整等。然后分析Query 中的 Hint信息(如果有),看显示Hint信息是否可以完全确定该Query的执行计划。如果没有Hint 或Hint信息还不足以完全确定执行计划,则会读取所涉及对象的统计信息,根据Query进行写相应的计算分析,然后再得出最后的执行计划。

Hint: 简单来说就是在某些特定的场景下人工协助MySQL优化器的工作,使其生成最优的执行计划。一般来说,优化器的执行计划都是最优化的,不过在某些特定场景下,执行计划可能不是最优化。

如何进行SQL优化:

  • 最大化利用索引;
  • 尽可能避免全表扫描;
  • 减少无效数据的查询;

对于后端程序员来说最主要的就是优化索引。

索引

MySQL官方对索引的定义为:索引(Index)是帮助MySQL高效获取数据的数据结构。可以得到索引的本质:索引是数据结构。相当于一本书的目录或者字典。

比如,要查“mysql”这个单词,我们肯定需要定位到m字母,然后从下往下找到y字母,再找到剩下的sql;如果没有索引,那么你可能需要逐个逐个寻找。你可以简单理解为,索引维护的就是一组排好序的数据。

我们平常所说的索引,如果没有特别指明,都是指B树结构组织的索引。当然,除了B+树这种类型的索引之外,还有哈稀索引等。

总结:索引,这种数据结构就是以空间换取时间。

索引的优缺点

索引的优势:

  • 提高数据检索的效率,降低数据库的IO成本;
  • 降低数据排序的成本,降低了CPU的消耗;

索引的劣势:

  • 索引本身很大,可以放在内存、硬盘中,通常为硬盘;
  • 索引不是所有情况都适用,所以在建立的时候要考虑:
    • 数据量很小则不适合建立;
    • 频繁更新的字段则不适合建立;
    • 很少使用的字段则不适合建立;
    • 某个字段包含许多重复的数据则不适合建立;
  • 索引虽然提高了查询的效率,但是会降低增删改的效率;
索引分类及操作
  • 单值索引:即一个索引只包含单个列,一个表可以有多个单列索引;
  • 唯一索引:索引列的值必须唯一,但允许有空值;
  • 复合索引:一个索引包含多个列;
  • 主键索引:属于唯一索引的一种,但是值不能为null;

创建索引:

 CREATE [UNIQUE] INDEX indexName ON mytable(columnName(length));
 ALTER mytable ADD [UNIQUE] INDEX [indexName] ON (columnName(length));

删除索引:

 DROP INDEX [indexName] ON [tableName];

修改索引:

-- 该语句添加一个主键,这意味着索引值必须是唯一的,且不能为NULL
 ALTER TABLE [tableName] ADD PRIMARY KEY (column_list);
 
-- 这条语句创建索引的值必须是唯一的(除了NULL外,NULL可能会出现多次)
 ALTER TABLE [tableName] ADD UNIQUE [indexName] (column_list);
 
-- 添加普通索引,索引值可出现多次
 ALTER TABLE [tableName] ADD INDEX [indexName] (column_list);
 
-- 该语句指定了索引为FULLTEXT,用于全文索引
 ALTER TABLE [tableName] ADD FULLTEXT [indexName] (column_list);

查看索引:

 SHOW INDEX FROM [tableName];
索引建立原则
  • 不要建立太多的索引:因为维护索引是需要耗费空间和性能的,MySQl会为了每一个索引维护一个B树,如果索引过多,这无疑是增加了MySQL的负担;
  • 频繁增删改的字段不要建立索引:如果某个字段频繁修改,那就意味着也需要修改索引,这必然影响MySQL的性能;
  • 为频繁查询的字段建立索引:建立索引要为经常作为查询条件的字段建立索引,这样能提高SQL的查询效率;与之相反的不要为很少使用的字段建立索引;
  • 避免为”大字段”建立索引:就是尽量使用字段长度小的字段作为索引;例如,要为varchar(5)varchar(200)的字段建立索引,则优先考虑为varchar(5)的建立;如果非要为varchar(200)的字段建立索引那么可以这样:
     -- 为varchar(200)的字段建立索引,将其长度设置为 20  
     create index  tbl_001 on dual(address(20));
    
  • 选择数据区分大的列建立索引:如果某个字段包含许多重复的数据则不适合建立索引。假设现在有一个”性别”字段,里面存放的数据的值要么是男,要么是女,这样的字段很不适合作为索引。因为如果值出现的几率几乎相等,那么无论搜索哪个值都可能得到一半的数据。在这些情况下,还不如不要索引,因为MySQL他还有一个查询优化器,查询优化器发现某个值出现在表的数据行中的百分比很高的时候,它一般会忽略索引,进行全表扫描。

    惯用的百分比界线是”30%”。匹配的数据量超过一定限制的时候查询器会放弃使用索引,这也是索引失效的场景之一。

执行计划

使用explain关键字可以模拟优化器执行SQL查询语句,从而知道MySQL是如何处理你的SQL语句的。分析你的查询语句或是表结构的性能瓶颈。

explain不止适用于select也适用于delete、insert、replace和update语句。

当explain可解释语句一起使用时,MySQL会显示来自优化器的关于语句执行计划的信息。也就是说,MySQL解释了它将如何处理语句,包括有关表如何连接以及按顺序连接的信息。

在MySql中执行任意一条SQL前加上explain关键字,即可看到:

 +----+-------------+----------+------+---------------+------+---------+------+------+-------+
 | id | select_type | table    | type | possible_keys | key  | key_len | ref  | rows | Extra |
 +----+-------------+----------+------+---------------+------+---------+------+------+-------+
id、table

table是显示这一行的数据是关于哪张表的。

id是select查询的序列号,包含一组数字,表示查询中执行select子句或操作表的顺序。

  • id值相同,执行顺序由上至下;
  • id值不同,id值越大优先级越高,越先被执行;

表的执行顺序与表中数据息息相关,举个例子:表A:3条数据 表B:4条数据 表C:6条数据。
假设在执行某条SQL的情况下表A、B、C的id值相同,假设执行顺序:表A、B、C。在给表B添加4条数据后,再次执行前面的这条SQL发现执行顺序变为:表A、C、B。


这是因为中间结果会影响表的执行顺序:
3 * 4 * 2 = 12 * 2 = 24
3 * 2 * 4 = 6 * 4 = 24
虽然最后结果一样,但是中间过程不一样。中间过程越小占用的空间越小,所以在ID值相同的情况下数据小的表优先查询。

select_type

select_type是查询的类型,主要是用于区别普通查询、联合查询、子查询等的复杂查询。

查询类型:

  • PRIMARY:包含自查询的主查询,最外层部分;
  • SUBQUERY:查询语句中包含了子查询,非最外层;
  • SIMPLE:简单查询,即SQL中不包含子查询或者UNION查询;
  • DERIVED:在查询过程中创建了临时表,例如SQL:
     explain select name from (select * from table1) t1;
    
  • UNION:若第二个SELECT出现在UNION之后,则被标记为UNION;若UNION包含在FROM子句的子查询中外层SELECT将被标记为:DERIVED;
     explain select name from (select * from table1 union select * from table2) t1;
    
  • UNION RESULT:从UNION表中的结果;
type

type是索引类型,是较为重要的一个指标,结果值从最好到最坏依次是:

 system > const > eq_ref > ref > fulltext > ref_or_null > index_merge > unique_subquery > index_subquery > range > index >ALL

实际工作中可能用不到这么多,一般只要记住以下就行了:

 system > const > eq_ref > ref > range > index > ALL

其中system、const只是理想情况,实际能达到ref、range。

常见索引类型:

  • system:表只有一行记录的系统表,或衍生表只有一行数据的主查询;
     -- 衍生表:(select * from tbl_001) 只有一条记录;id为主键索引
     explain select * from (select * from tbl_001) where id = 1;
    
  • const:仅仅能查询到一条记录的SQL,并且用于主键索引或者唯一键索引;
     -- tbl_001表只有一条记录;id为主键索引或唯一键索引
     explain select * from tbl_001 where id = 1;
    
  • eq_ref:唯一性索引;对于每个索引键的查询,返回匹配唯一一行的数据,有且只有一个,不能多也不能为0;常见于主键或唯一索引扫描;
     -- tbl_001.tid为索引列;且tbl_001与tbl_002表中数据记录一一对应
     select * from tbl_001,tbl_002 where tbl_001.tid = tbl_002.id
    
  • ref:非唯一性索引;对于每个索引键的查询,返回多个匹配的所有行,包括0个;
     -- name 为索引列;tbl_001 表中 name 值为 zs 的有多个
     explain select * from tbl_001 where name = 'zs';
    
  • range:检索指定范围的行,where后面是一个范围查询常见:between and、in、>、<=;
     -- tid 为索引列;
     explain select * from tbl_001 where tid <=3;
    
  • index:查询全部索引中的数据;
     -- name为索引列;
     explain select name from tbl_001;
    
  • all:查询全部表中的数据;
     -- name不是索引列;
     explain select name from tbl_001;
    
possible_keys、key

possible_keys是可能用到的索引,是一种预测,不准确;key是实际用到的索引,如果为null则没有用到索引。

 -- name为索引列
 explain select name from tbl_001;
 +----+-------------+---------+-------+---------------+----------+---------+------+------+-------------+
 | id | select_type | table   | type  | possible_keys | key      | key_len | ref  | rows | Extra       |
 +----+-------------+---------+-------+---------------+----------+---------+------+------+-------------+
 |  1 | SIMPLE      | tbl_001 | index | NULL          | idx_name | 83      | NULL |    4 | Using index |
 +----+-------------+---------+-------+---------------+----------+---------+------+------+-------------+
key_len

key_len索引使用的长度,可通过索引列长度,例如:name vachar(20),来判断复合索引到底有没有使用。

 -- name为索引列;可以为null;varchar类型;utf8字符集;
 explain select name from tbl_001 name = 'zs';
 +----+-------------+---------+-------+---------------+----------+---------+------+------+-------------+
 | id | select_type | table   | type  | possible_keys | key      | key_len | ref  | rows | Extra       |
 +----+-------------+---------+-------+---------------+----------+---------+------+------+-------------+
 |  1 | SIMPLE      | tbl_001 | index | NULL          | idx_name | 63      | NULL |    4 | Using index |
 +----+-------------+---------+-------+---------------+----------+---------+------+------+-------------+

其中,如果索引字段可以为null,MySql会用一个字节进行标识;varchar为可变长度,MySql用两个字节来标识。

utf8:一个字符三个字节;
gbk:一个字符两个字节;
latin:一个字符一个字节;

举例,字段name vachar(20)为索引列,可以为null,utf8编码,执行执行计划name列使用到了索引那么key_len等于20*3+1+2=63

ref

ref指明当前表所引用的字段。

 -- 其中b.d可以为常量,常量用 const 标识
 select ... where a.c = b.d;  
 -- tid 为索引列
 explain select * from tbl_001 t1,tbl_002 t2 where t1.tid = t2.id and t1.name = 'zs';
 +----+-------------+-------+--------+------------------+----------+---------+-----------------+------+-------------+
 | id | select_type | table | type   | possible_keys    | key      | key_len | ref             | rows | Extra       |
 +----+-------------+-------+--------+------------------+----------+---------+-----------------+------+-------------+
 |  1 | SIMPLE      | t1    | ref    | idx_name,idx_tid | idx_name | 83      | const           |    1 | Using where |
 |  1 | SIMPLE      | t2    | eq_ref | PRIMARY          | PRIMARY  | 4       | sql_demo.t1.tid |    1 | NULL        |
 +----+-------------+-------+--------+------------------+----------+---------+-----------------+------+-------------+
rows

rows表示查询行数,实际通过索引查询到的个数。

 mysql> select * from tbl_001 t1,tbl_002 t2 where t1.tid = t2.id and t1.name = 'ls';
 +----+------+------+----+------+-------+-------+
 | id | name | tid  | id | name | name1 | name2 |
 +----+------+------+----+------+-------+-------+
 |  2 | ls   |    2 |  2 | ls   | ls1   | ls2   |
 |  4 | ls   |    1 |  1 | zs   | zs1   | zs2   |
 +----+------+------+----+------+-------+-------+

 mysql> explain select * from tbl_001 t1,tbl_002 t2 where t1.tid = t2.id and t1.name = 'ls';
 +----+-------------+-------+-------+------------------+------------+---------+----------------+------+-------------+
 | id | select_type | table | type  | possible_keys    | key        | key_len | ref            | rows | Extra       |
 +----+-------------+-------+-------+------------------+------------+---------+----------------+------+-------------+
 |  1 | SIMPLE      | t2    | index | PRIMARY          | index_name | 249     | NULL           |    2 | Using index |
 |  1 | SIMPLE      | t1    | ref   | idx_name,idx_tid | idx_tid    | 5       | sql_demo.t2.id |    1 | Using where |
 +----+-------------+-------+-------+------------------+------------+---------+----------------+------+-------------+
Extra

Extra包含不适合在其他列中显示但十分重要的额外信息。

常见值:

  • Using filesort:文件内排序;出现这个值代表额外的一次排序(查询),性能消耗比较大,需要进行SQL优化。常见order by语句中;
     -- name 为单值索引
     explain select * from tbl_001 where name = 'zs' order by tid;
     +----+-------------+---------+------+---------------+----------+---------+-------+------+----------------+
     | id | select_type | table   | type | possible_keys | key      | key_len | ref   | rows | Extra          |
     +----+-------------+---------+------+---------------+----------+---------+-------+------+----------------+
     |  1 | SIMPLE      | tbl_001 | ref  | idx_name      | idx_name | 83      | const |    1 | Using filesort |
     +----+-------------+---------+------+---------------+----------+---------+-------+------+----------------+
    
    对于单值索引来说,如果排序和查找的是同一个字段,则不会出现 Using filesort 反之则出现;一般通过where哪些字段就 orderby 哪些字段来避免。
     -- name,tid 为复合索引
     explain select * from tbl_001 where name = 'zs' order by tid;
     +----+-------------+---------+------+---------------+-----------+---------+-------+------+-------------+
     | id | select_type | table   | type | possible_keys | key       | key_len | ref   | rows | Extra       |
     +----+-------------+---------+------+---------------+-----------+---------+-------+------+-------------+
     |  1 | SIMPLE      | tbl_001 | ref  | idx_trans     | idx_trans | 83      | const |    1 | Using index |
     +----+-------------+---------+------+---------------+-----------+---------+-------+------+-------------+
    
    对于复合索引来说要按照建立复合索引的顺序来使用,不要跨列或者无序使用。

    跨列使用指,where后边的字段和order by后边的字段拼接起来,看是否满足索引的顺序,如不满足则为跨列,会出现Using filsort。

  • Using temporary:使了用临时表保存中间结果,MysQL在对查询结果排序时使用临时表。性能消耗也是很大的,一般出现这个词需要进行SQL优化。常见于分组查询group by语句;
     -- name、tid、cid 为复合索引
     explain select name from tbl_001 where name = 'zs' group by cid;
     +----+-------------+---------+------+---------------+---------+---------+-------+------+------------------------------+
     | id | select_type | table   | type | possible_keys | key     | key_len | ref   | rows | Extra                        |
     +----+-------------+---------+------+---------------+---------+---------+-------+------+------------------------------+
     |  1 | SIMPLE      | tbl_001 | ref  | idx_ntc       | idx_ntc | 83      | const |    2 | Using index; Using temporary |
     +----+-------------+---------+------+---------------+---------+---------+-------+------+------------------------------+
    
    Using temporary出现的原因,已经有表了但是不使用,必须再来一张表。我们可以通过查询哪些列,就通过哪些列来分组来避免。
  • Using index:出现这个值代表性能还是不错的;表示使用到了覆盖索引,不读取源文件,只从索引文件中获取数据,不需要回表查询。

    覆盖索引(Covering Index),一说为索引覆盖: 查询的数据列从索引文件中就能够取得,不必读取原数据行,MySQL可以利用索引返回select列表中的字段,而不必根据索引再次读取数据文件,换句话说查询到的列全部都在索引列中就是索引覆盖。
    如果要使用覆盖索引,一定要注意select列表中只取出需要的列,不可select*,因为如果将所有字段一起做索引会导致索引文件过大,查询性能下降。

     -- name、tid、cid 为复合索引
     explain select name,tid,cid from tbl_001 where name = 'zs';
     +----+-------------+---------+------+---------------+---------+---------+-------+------+-------------+
     | id | select_type | table   | type | possible_keys | key     | key_len | ref   | rows | Extra       |
     +----+-------------+---------+------+---------------+---------+---------+-------+------+-------------+
     |  1 | SIMPLE      | tbl_001 | ref  | idx_ntc       | idx_ntc | 83      | const |    2 | Using index |
     +----+-------------+---------+------+---------------+---------+---------+-------+------+-------------+
    
    如果用到了索引覆盖时,会对possible_key和key造成影响:
    • 如果没有使用到where,则索引只出现在key中;
    • 如果有where,则索引出现在key和possible_key中;
  • Using where:出现这个值代表需要回表查询;
     -- name 为单值索引,此时索引中不包含其他字段,想要查询其他字段就必须回表查询
     explain select name,tid,cid from tbl_001 where name = 'zs';
     +----+-------------+---------+------+---------------+---------+---------+-------+------+-------------+
     | id | select_type | table   | type | possible_keys | key     | key_len | ref   | rows | Extra       |
     +----+-------------+---------+------+---------------+---------+---------+-------+------+-------------+
     |  1 | SIMPLE      | tbl_001 | ref  | idx_name       | idx_name | 83      | const |    2 | Using where |
     +----+-------------+---------+------+---------------+---------+---------+-------+------+-------------+
    
  • Impossible WHERE:where语句永远为false,永远不成立;
     explain select * from tbl_001 where name = 'zs' and name = 'ls';
     +----+-------------+-------+------+---------------+------+---------+------+------+------------------+
     | id | select_type | table | type | possible_keys | key  | key_len | ref  | rows | Extra            |
     +----+-------------+-------+------+---------------+------+---------+------+------+------------------+
     |  1 | SIMPLE      | NULL  | NULL | NULL          | NULL | NULL    | NULL | NULL | Impossible WHERE |
     +----+-------------+-------+------+---------------+------+---------+------+------+------------------+
    

SQL优化案例

单表优化
 -- 准备测试表、测试数据
 create table book_2021(
   bid int(4) primary key,
   name varchar(20) not null,
   authorid int(4) not null,
   publicid int(4) not null,
   typeid int(4) not null  
 );
 insert into book_2021 values(1,'java',1,1,2);
 insert into book_2021 values(2,'php',4,1,2);
 insert into book_2021 values(3,'c',1,2,2);
 insert into book_2021 values(4,'c#',3,1,2);
 insert into book_2021 values(5,'c++',3,1,2);

需要优化的SQL:

 -- SQL原型,优化该SQL 
 select bid from book_2021 where typeid in(2,3) and authorid=1 order by typeid desc;

执行计划分析该SQL,发现该SQL存在Using filesort,type为ALL,需要进行SQL优化。

 explain select bid from book_2021 where typeid in(2,3) and authorid=1 order by typeid desc;
 +----+-------------+-----------+------+---------------+------+---------+------+------+-----------------------------+
 | id | select_type | table     | type | possible_keys | key  | key_len | ref  | rows | Extra                       |
 +----+-------------+-----------+------+---------------+------+---------+------+------+-----------------------------+
 |  1 | SIMPLE      | book_2021 | ALL  | NULL          | NULL | NULL    | NULL |    5 | Using where; Using filesort |
 +----+-------------+-----------+------+---------------+------+---------+------+------+-----------------------------+
  1. 根据SQL的执行过程可知,建立索引的顺序为typeid、authorid、bid
     -- sql执行顺序
     from .. on .. join ..  where .. group by .. having .. select distinct .. order by .. limit ..
    
     -- 建立索引
     alter table book_2021 add index idx_tab(typeid,authorid,bid);
    
  2. 使用in的时候使索引失效,如果in失效那么后面的索引也将会失效,所以将范围条件放到最后;
     -- 优化后的SQL
     select bid from book_2021 where authorid=1 and typeid in(2,3) order by typeid desc;
    
    将旧索引删除,创建字段顺序对应的索引。

    温馨提示:索引一旦升级优化,需要删除索引防止干扰

     -- 删除 idx_tab 索引
     drop index idx_tab on book_2021;
    
     -- 给表 book_2021 添加索引 idx_atb
     alter table book_2021 add index idx_atb(authorid,typeid,bid);
    

最终优化后的SQL执行过程:

 explain select bid from book_2021 where authorid=1 and typeid in(2,3) order by typeid desc;
 +----+-------------+-----------+------------+-------+---------------+---------+---------+------+------+----------+-----------------------------------------------+
 | id | select_type | table     | partitions | type  | possible_keys | key     | key_len | ref  | rows | filtered | Extra                                         |
 +----+-------------+-----------+------------+-------+---------------+---------+---------+------+------+----------+-----------------------------------------------+
 |  1 | SIMPLE      | book_2021 | NULL       | range | idx_atb       | idx_atb | 8       | NULL |    3 |   100.00 | Using where; Backward index scan; Using index |
 +----+-------------+-----------+------------+-------+---------------+---------+---------+------+------+----------+-----------------------------------------------+

单表优化总结:

  • 最佳左前缀原则,保持索引的定义和使用顺序一致;
  • 索引需要逐步优化;
  • 将包含范围查询的条件放置到最后
两表优化
 -- 准备测试表、测试数据
 create table teacher2(
   tid int(4) primary key,
   cid int(4) not null  
 );

 insert into teacher2 values(1,2);
 insert into teacher2 values(2,1);
 insert into teacher2 values(3,3);

 create table course2(
   cid int(4) not null,
   cname varchar(20)
 );

 insert into course2 values(1,'java');
 insert into course2 values(2,'phython');
 insert into course2 values(3,'kotlin');

需要优化的SQL:

 -- SQL原型,优化该SQL 
 select * from teacher2 t left outer join course2 c on t.cid = c.cid where c.cname = 'java';

执行过程分析该SQL,发现进行了全表扫描。

 explain select * from teacher2 t left outer join course2 c on t.cid = c.cid where c.cname = 'java';
 +----+-------------+-------+------------+------+---------------+------+---------+------+------+----------+--------------------------------------------+
 | id | select_type | table | partitions | type | possible_keys | key  | key_len | ref  | rows | filtered | Extra                                      |
 +----+-------------+-------+------------+------+---------------+------+---------+------+------+----------+--------------------------------------------+
 |  1 | SIMPLE      | c     | NULL       | ALL  | NULL          | NULL | NULL    | NULL |    3 |    33.33 | Using where                                |
 |  1 | SIMPLE      | t     | NULL       | ALL  | NULL          | NULL | NULL    | NULL |    3 |    33.33 | Using where; Using join buffer (hash join) |
 +----+-------------+-------+------------+------+---------------+------+---------+------+------+----------+--------------------------------------------+

优化思路:

  • 建立索引;在哪张表哪个字段建立索引?即小表驱动大表,索引应建立在经常使用的字段上,假设此时teacher表数据量少,那么本题应为t.cid、c.name字段加索引;

小表驱动大表:假设 小表10条数据;大表300条数据;让大小表做嵌套循环,无论10是外层循环还是300是外层循环,结果都是3000次,但是为了减少表连接创建的次数,应该将10,即小表放在外层循环这样效率会更高。

小表驱动大表原因:
现有两个表A与B ,表A有200条数据,表B有20万条数据;按照循环的概念举个例子:
小表驱动大表 > A驱动表,B被驱动表
for(200条){ for(20万条){ ... } }
大表驱动小表 > B驱动表,A被驱动表
for(20万条){ for(200条){ ... } }
总结:
如果小的循环在外层,对于表连接来说就只连接200次 ;
如果大的循环在外层,则需要进行20万次表连接,从而浪费资源,增加消耗 ;
小表驱动大表的主要目的是通过减少表连接创建的次数,加快查询速度。

 -- 给表teacher2、course2 添加索引
 alter table teacher2 add index idx_teacher2_cid(cid);
 alter table course2 add index idx_course2_cname(cname);

最终优化后的SQL:

 -- 添加索引后
 explain select * from teacher2 t left outer join course2 c on t.cid = c.cid where c.cname = 'java';
 +----+-------------+-------+------------+------+-------------------+-------------------+---------+----------------+------+----------+-------------+
 | id | select_type | table | partitions | type | possible_keys     | key               | key_len | ref            | rows | filtered | Extra       |
 +----+-------------+-------+------------+------+-------------------+-------------------+---------+----------------+------+----------+-------------+
 |  1 | SIMPLE      | c     | NULL       | ref  | idx_course2_cname | idx_course2_cname | 83      | const          |    1 |   100.00 | Using where |
 |  1 | SIMPLE      | t     | NULL       | ref  | idx_teacher2_cid  | idx_teacher2_cid  | 4       | sql_demo.c.cid |    1 |   100.00 | Using index |
 +----+-------------+-------+------------+------+-------------------+-------------------+---------+----------------+------+----------+-------------+

多表优化总结:

  • 小表驱动大表;
  • 索引建立在经常查询的字段上;

避免索引失效的一些原则

  • 在使用复合索引时,不要跨列使用或无序使用,即最佳左前缀法则;否则索引失效;

    跨列使用指,where后边的字段和order by后边的字段拼接起来,看是否满足索引的顺序,如不满足则为跨列,会出现Using filsort。

  • 不要在索引上进行任何操作,例如:计算、函数运算、类型转换等;否则索引失效;
     -- age列为索引,但此时SQL语句age列存在计算,age索引列失效;
     select * from tbl_001 where age*3 = '10';
    
     -- name为索引列,此时在该索引列上进行函数计算,name索引列失效;
     select * from tbl_001 tbl_001 left(name,4)='July'; 
     
     -- typeid为索引列,typeid为int类型,此时发生隐式类型转换,typeid索引列失效;
     select * from tbl_001 c typeid = '1';
    
  • 复合索引不能使用不等于(!=、<>)或is null、is not null,否则自身及右侧索引全部失效;

大部分情况下如果复合索引使用上面的运算符索引会失效,但是MySql在服务层存在SQL优化阶段,所以复合索引即使使用了不等于、is null、is not null等操作,还是可能会存在索引生效的情况。

  • 尽量使用覆盖索引,使用覆盖索引会提高系统性能;
     -- name、tid、cid 为复合索引
      select name,tid,cid from tbl_001 where name = 'zs';
    
  • like尽量以常量开头,不要以%开头,否则索引失效;
     -- name 为索引列,此处索引失效
     select * from tbl_002 where name like '%x%';
    
     -- 如果必须要使用%开头,可以使用覆盖索引挽救一下
     select name from tbl_002 where name like '%x%';
    
  • 不要使用or,否则索引失效;
     -- authorid、typeid为复合索引,此处or的左右两边索引全部失效
     select * from book_2021 where authorid = 1 or typeid = 1;
    
  • 避免使用*,因为使用之后MySql还需要计算把替换成对应的列;
    -- 不要使用*,把*替换成具体需要的列
     select * from book_2021;
    

SQL优化方法

exist和in选择

两者可以互相替代,如果主查询的数据集大,使用in的效率高一点;如果子查询的数据集大,使用exist效率高一点;

 -- 假设此处主查询数据集较大,使用in
 select * from tbl_001 where tid in (select id from tbl_001);

  -- 假设此处子查询数据集较大,使用exist
  select tid from tbl_001 where exists (select * from tbl_001);

exists语法:将主查询的结果,放到子查询结果中进行判断,看子查询中是否有数据,如果有数据则保留数据并返回;没有则返回空。

order by优化

order by 是比较常用的一个关键字,基本上查询出来的数据都要进行排序,否则就太乱了。使用order by的时候常常伴随着Using filesort的发生,Using filesort在底层有两种算法,根据IO的次数分为:

  • 双路排序:MySql4.1之前默认使用双路排序;具体执行流程,双路排序需要扫描两次磁盘上的字段,首先扫描排序的字段对字段进行排序,然后扫描其他字段;
  • 单路排序:为了减少IO访问次数在MySql4.1之后默认使用单路排序;读取一次获取全部的字段,在buffer中进行排序。但是此种方法存在隐患不一定是只读一次数据,如果数据量过大buffer放不下则再需要读取文件,可以通过调节buffer来进行缓解;
     -- 设置读取文件缓冲区(buffer)的大小,单位字节
     set max_length_for_sort_data = 1024;
    

如果需要排序的列的总大小超过了设置的max_length_for_sort_data那么MySql底层会自动从单路排序切换到双路排序。

保证全部索引排序字段的一致性,都是升序或都是降序,不要部分升序部分降序。

排查SQL

在MySql中可以通过抓去慢SQL日志来进行SQL排查,慢SQL日志超过响应时间的阈值默认10秒,便会记录该SQL;慢SQL日志默认是关闭的,建议在开发调优时打开,最终部署上线时关闭。

慢SQL日志设置

通过SQL来查看记录慢SQL日志是否开启:

 -- 查看变量 slow_query_log,记录慢查询日志默认关闭
 show variables like '%slow_query_log%';
 +---------------------+----------------------------------------------+
 | Variable_name       | Value                                        |
 +---------------------+----------------------------------------------+
 | slow_query_log      | OFF                                          |
 | slow_query_log_file | /usr/local/mysql/data/MacBook-Pro-2-slow.log |
 +---------------------+----------------------------------------------+

可以通过SQL来进行开启记录慢SQL日志:

 -- 在内存中开启慢SQL记录日志; 此种方式在 mysql 服务重启后失效
 set global slow_query_log=1;
 
 -- 查看是否开启慢SQL日志记录
 show variables like '%slow_query_log%';
 +---------------------+----------------------------------------------+
 | Variable_name       | Value                                        |
 +---------------------+----------------------------------------------+
 | slow_query_log      | ON                                           |
 | slow_query_log_file | /usr/local/mysql/data/MacBook-Pro-2-slow.log |
 +---------------------+----------------------------------------------+
 -- 在MySql my.cnf 配置文件中追加配置;重启MySql服务后也生效,即永久开启
 slow_query_log=1
 slow_query_log_file=/usr/local/mysql/data/MacBook-Pro-2-slow.log

查看慢SQL记录日志阈值:

 -- 查看慢SQL记录日志阈值,默认10秒
 show variables like '%long_query_time%';
 +-----------------+-----------+
 | Variable_name   | Value     |
 +-----------------+-----------+
 | long_query_time | 10.000000 |
 +-----------------+-----------+

修改慢SQL记录日志阈值:

 -- 在内存中修改设置慢查询SQL记录日志阈值为5秒;注意设置后不会立即生效,需要重新登陆mysql客户端才会生效
 set global long_query_time = 5;

 -- 设置之后重新登陆mysql使用命令查看慢SQL查询日志阈值 
 show variables like '%long_query_time%';
 +-----------------+-----------+
 | Variable_name   | Value     |
 +-----------------+-----------+
 | long_query_time | 5.000000 |
 +-----------------+-----------+
 -- 在MySql配置文件my.cnf中修改慢查询SQL记录日志阈值,设置为3秒
 long_query_time=3
查看慢SQL日志
  • 直接查看慢SQL日志;
      -- 模拟慢查询SQL 
      select sleep(5);
      
      -- 查看是否开启慢SQL日志记录
      show variables like '%slow_query_log%';
      +---------------------+----------------------------------------------+
      | Variable_name       | Value                                        |
      +---------------------+----------------------------------------------+
      | slow_query_log      | ON                                           |
      | slow_query_log_file | /usr/local/mysql/data/MacBook-Pro-2-slow.log |
      +---------------------+----------------------------------------------+
    
    查看慢SQL日志记录cat /usr/local/mysql/data/MacBook-Pro-2-slow.log执行命令:
     MacBook-Pro-2:~ root# cat /usr/local/mysql/data/MacBook-Pro-2-slow.log
     /usr/local/mysql/bin/mysqld, Version: 8.0.22 (MySQL Community Server - GPL). started with:
     Tcp port: 3306  Unix socket: /tmp/mysql.sock
     Time                 Id Command    Argument
     # Time: 2021-09-17T06:46:20.655775Z
     # User@Host: root[root] @ localhost []  Id:    15
     # Query_time: 4.003891  Lock_time: 0.000000 Rows_sent: 1  Rows_examined: 1
     use sql_demo;
     SET timestamp=1631861176;
     select sleep(4);
    
  • 通过mysqldumpslow工具来查看,可以通过一些过滤条件快速找到需要定位的慢SQL;

    语法:mysqldumpslow 各种参数 慢查询日志文件路径
    -s:排序方式
    -r:逆序反转
    -l:锁定时间,不要从总时间中减去锁定时间
    -g:在文件中查找考虑包含此字符串的
    更多指令解析查看 mysqldumpslow --help

     -- 获取返回记录最多的3条SQL
     mysqldumpslow -s r -t 3 /usr/local/mysql/data/MacBook-Pro-2-slow.log
    
     -- 获取访问次数最多的3条SQL
     mysqldumpslow -s r -t 3 /usr/local/mysql/data/MacBook-Pro-2-slow.log
    
     -- 按照时间排序,前10条包含 left join 的查询SQL 
     mysqldumpslow -s t -t 10 -g "left join" /usr/local/mysql/data/MacBook-Pro-2-slow.log
    
模拟数据并分析SQL
  • 模拟数据;
     -- 创建表
     create database testdata;
     use testdata;
     
     create table dept 
     (
     dno int(5) primary key default 0,
     dname varchar(20) not null default '',
     loc varchar(30) default ''
     ) engine=innodb default charset=utf8;
     
     create table emp
     (
     eid int(5) primary key,
     ename varchar(20) not null default '',
     job varchar(20) not null default '',
     deptno int(5) not null default 0
     )engine=innodb default charset=utf8;
    
     -- 创建存储过程:获取随机字符串
     set global log_bin_trust_function_creators=1;
     use testdata;
     delimiter $
     create function randstring(n int) returns varchar(255)
     begin 
     
         declare all_str varchar(100) default 'abcdefghijklmnopqrestuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ';
         declare return_str varchar(255) default '';
         declare i int default 0;
         while i<n
         do
             set return_str=concat(return_str, substring(all_str, FLOOR(1+rand()*52), 1));
             set i=i+1;
         end while;
         return return_str;
     end $
    
     -- 创建存储函数:插入随机整数
     use testdata;
     create function ran_num() returns int(5)
     begin 
     
     declare i int default 0;
     set i=floor(rand()*100);
     return i;
     
     end$
    
     -- 创建存储过程:向emp表插入数据
     create procedure insert_emp(in eid_start int(10), in data_times int(10))
     begin 
     declare i int default 0;
     set autocommit =0;
     
     repeat 
     insert into emp values(eid_start+i, randstring(5), 'other', ran_num());
     set i=i+1;
     until i=data_times
     end repeat;
     
     commit;
     
     end $
    
     -- 创建存储过程:向dept表插入数据
     create procedure insert_dept(in dno_start int(10), in data_times int(10))
     begin 
     declare i int default 0;
     set autocommit =0;
     
     repeat 
     insert into dept values(dno_start+i, randstring(6), randstring(8));
     set i=i+1;
     until i=data_times
     end repeat;
     
     commit;
     
     end $
    
     -- 向emp、dept表中插入数据
     delimiter ;
     call insert_emp(1000, 800000);
     call insert_dept(10, 30);
    
     -- 验证插入数据量
     select count(1) from emp;
    
  • 使用show profile进行sql分析;
     -- 查看 profiling 是否开启,默认是关闭的
     show variables like 'profiling';
     +---------------+-------+
     | Variable_name | Value |
     +---------------+-------+
     | profiling     | OFF   |
     +---------------+-------+
    
     -- 如果没开启将其开启
     set profiling=on;
    
  • 执行测试SQL,任意执行均可供之后SQL分析;
    select * from emp;
    
    select * from emp group by eid order by eid;
    
    select * from emp group by eid limit 150000;
    
    -- 执行命令,查看结果
     show profiles;
     +----------+------------+--------------------------------------------------+
     | Query_ID | Duration   | Query                                            |
     +----------+------------+--------------------------------------------------+
     |        2 | 0.00300900 | show tables                                      |
     |        3 | 0.01485700 | desc emp                                         |
     |        4 | 0.00191200 | select * from emp group by eid%10 limit 150000   |
     |        5 | 0.25516300 | select * from emp                                |
     |        6 | 0.00026400 | select * from emp group by eid%10 limit 150000   |
     |        7 | 0.00019600 | select eid from emp group by eid%10 limit 150000 |
     |        8 | 0.03907500 | select eid from emp group by eid limit 150000    |
     |        9 | 0.06499100 | select * from emp group by eid limit 150000      |
     |       10 | 0.00031500 | select * from emp group by eid%20 order by 5     |
     |       11 | 0.00009100 | select * from emp group by eid%20 order by       |
     |       12 | 0.00012400 | select * from emp group by eid order by          |
     |       13 | 0.25195300 | select * from emp group by eid order by eid      |
     |       14 | 0.00196200 | show variables like 'profiling'                  |
     |       15 | 0.26208900 | select * from emp group by eid order by eid      |
     +----------+------------+--------------------------------------------------+
    
  • 使用命令show profile cpu,block io for query 上一步前面执行 show profiles 的 Query_ID ;诊断SQL;

    参数备注,不区分大小写:
    all:显示所有的开销信息;
    block io:显示块lO相关开销;
    context switches:上下文切换相关开销;
    cpu:显示CPU相关开销信息;
    ipc:显示发送和接收相关开销信息;
    memory:显示内存相关开销信息;
    page faults:显示页面错误相关开销信息;
    source:显示和Source_function,Source_file,Source_line相关的开销信息;
    swaps:显示交换次数相关开销的信息;

     show profile cpu,block io for query 3;
     +----------------------------+----------+----------+------------+--------------+---------------+
     | Status                     | Duration | CPU_user | CPU_system | Block_ops_in | Block_ops_out |
     +----------------------------+----------+----------+------------+--------------+---------------+
     | starting                   | 0.004292 | 0.000268 |   0.000941 |            0 |             0 |
     | checking permissions       | 0.000026 | 0.000012 |   0.000013 |            0 |             0 |
     | checking permissions       | 0.000007 | 0.000005 |   0.000003 |            0 |             0 |
     | Opening tables             | 0.003883 | 0.000865 |   0.000880 |            0 |             0 |
     | init                       | 0.000022 | 0.000013 |   0.000008 |            0 |             0 |
     | System lock                | 0.000013 | 0.000012 |   0.000002 |            0 |             0 |
     | optimizing                 | 0.000994 | 0.000078 |   0.000155 |            0 |             0 |
     | statistics                 | 0.000233 | 0.000222 |   0.000011 |            0 |             0 |
     | preparing                  | 0.000046 | 0.000043 |   0.000003 |            0 |             0 |
     | Creating tmp table         | 0.000075 | 0.000073 |   0.000002 |            0 |             0 |
     | executing                  | 0.001532 | 0.000141 |   0.000266 |            0 |             0 |
     | checking permissions       | 0.000050 | 0.000044 |   0.000005 |            0 |             0 |
     | checking permissions       | 0.000014 | 0.000012 |   0.000002 |            0 |             0 |
     | checking permissions       | 0.001539 | 0.000102 |   0.000356 |            0 |             0 |
     | checking permissions       | 0.000044 | 0.000037 |   0.000007 |            0 |             0 |
     | checking permissions       | 0.000019 | 0.000016 |   0.000002 |            0 |             0 |
     | checking permissions       | 0.001250 | 0.000089 |   0.000318 |            0 |             0 |
     | end                        | 0.000015 | 0.000007 |   0.000008 |            0 |             0 |
     | query end                  | 0.000006 | 0.000004 |   0.000001 |            0 |             0 |
     | waiting for handler commit | 0.000041 | 0.000040 |   0.000002 |            0 |             0 |
     | removing tmp table         | 0.000012 | 0.000010 |   0.000001 |            0 |             0 |
     | waiting for handler commit | 0.000010 | 0.000009 |   0.000002 |            0 |             0 |
     | closing tables             | 0.000019 | 0.000018 |   0.000001 |            0 |             0 |
     | freeing items              | 0.000648 | 0.000081 |   0.000152 |            0 |             0 |
     | cleaning up                | 0.000067 | 0.000047 |   0.000021 |            0 |             0 |
     +----------------------------+----------+----------+------------+--------------+---------------+
    
全局查询日志

不要在生产环境开启这个功能。

在配置MySql文件my.cnf设置全局查询日志:

-- 开启全局查询日志
general_log=1

-- 记录日志文件的路径
general_log_file=/path/logfile

-- 设置输出格式为 FILE
log_output=FILE

-- 通过cat命令直接查看;如果为空则需要造数
cat /var/lib/mysql/bigdata01.log;

在mysql客户端设置全局查询日志:

-- 查看是否开启全局查询日志
show variables like '%general_log%';

-- 开启全局查询日志
set global general_log=1;

-- 设置输出格式为 TABLE
set global log_output='TABLE';

-- 可在mysql库里的geneial_log表查看;如果为空则需要造数
select * from mysql.general_log;

MySQL锁机制

在数据库中,除传统的计算资源(如CPU、RAM、I/O等)的争用以外,数据也是一种供许多用户共享的资源。如何保证数据并发访问的一致性、有效性是所有数据库必须解决的一个问题,锁冲突也是影响数据库并发访问性能的一个重要因素。从这个角度来说,锁对数据库而言显得尤其重要,也更加复杂。简而言之,锁机制是解决因资源共享,而造成的并发问题。

MySql中的锁按照对数据操作的类型分为:读锁即共享锁,写锁即互斥锁;按照操作粒度来分,分为表锁、行锁,页锁。

  • 读锁:对于同一个数据,多个读操作可以同时进行,互不干扰。
  • 写锁:如果当前写操作没有完毕,则无法进行其他的读操作、写操作。
  • 表锁:一次性对一张表整体加锁。MyISAM存储引擎偏向表锁,开销较小、加锁较快、无死锁、锁的范围较大,但是容易发生发生锁冲突,并发度低。
  • 行锁:一次性对一条数据加锁。InnoDB存储引擎偏向行锁,开销较大、加锁较慢、容易出现死锁、锁的范围较小,但是不易发生锁冲突,并发度高。

使用锁

表锁

测试数据:

 create table mylock (
     id int not null primary key auto_increment,
     name varchar(20) default ''
 ) engine myisam;
 
 insert into mylock(name) values('a');
 insert into mylock(name) values('b');
 insert into mylock(name) values('c');
 insert into mylock(name) values('d');
 insert into mylock(name) values('e');

常用命令:

 -- 加锁
 lock table 表名1 read/write, 表名2 read/write, 其他;
 
 -- 解锁
 unlock tables;

 -- 查看表上是否加锁;在In_use列,0代表没有加锁,1代表加锁
 show open tables;
 
 -- 分析表锁
 -- Table_locks_immediate:产生表级锁定的次数,表示可以立即获取锁的查询次数,每立即获取锁值加1
 -- Table_locks_waited:出现表级锁定争用而发生等待的次数(不能立即获取锁的次数,每等待一次锁值加1),此值高则说明存在着较严重的表级锁争用情况
 show status like 'table_locks%';

给表添加读锁及测试读操作:

请添加图片描述

请添加图片描述

给表添加读锁及测试写操作:

请添加图片描述

请添加图片描述

给某个表添加读锁之后,所有会话都能对这个表进行读操作,但是当前会话不能对该表进行写操作,对其他表进行读、写操作;其他会话能需要等持有锁的会话释放该表的锁后,才能进行写操作,期间将会一直处于等待状态,可以对其他表进行读写操作。


给表添加写锁及测试读操作:

请添加图片描述

请添加图片描述

给表添加写锁及测试写操作:

请添加图片描述

请添加图片描述

给某个表添加写锁之后,当前会话可以对该表进行写操作、读操作,其他会话要想对该表进行读写操作需要等持有锁的会话释放锁,否则期间将会一直等待该锁释放;但是当前持有锁的会话是不能对其他表进行读写操作,其他会话能够对其他表进行读写操作。

对于表锁MyISAM在执行查询语句前,会自动给涉及的所有表加读锁,在执行增删改操作前,会自动给涉及的表加写锁。

  • 对MyISAM表的读操作(加读锁),不会阻塞其他进程对同一表的读请求,但会阻塞对同一表的写请求。只有当读锁释放后,才会执行其它进程的写操作。
  • 对MyISAM表的写操作〈加写锁),会阻塞其他进程对同一表的读和写操作,只有当写锁释放后,才会执行其它进程的读写操作。

简而言之,就是读锁会阻塞写,但是不会堵塞读。而写锁则会把读和写都堵塞。

行锁

测试数据:

 CREATE TABLE test_innodb_lock (a INT(11),b VARCHAR(16))ENGINE=INNODB;
 
 INSERT INTO test_innodb_lock VALUES(1,'b2');
 INSERT INTO test_innodb_lock VALUES(3,'3');
 INSERT INTO test_innodb_lock VALUES(4, '4000');
 INSERT INTO test_innodb_lock VALUES(5,'5000');
 INSERT INTO test_innodb_lock VALUES(6, '6000');
 INSERT INTO test_innodb_lock VALUES(7,'7000');
 INSERT INTO test_innodb_lock VALUES(8, '8000');
 INSERT INTO test_innodb_lock VALUES(9,'9000');
 INSERT INTO test_innodb_lock VALUES(1,'b1');
 
 CREATE INDEX test_innodb_a_ind ON test_innodb_lock(a);
 CREATE INDEX test_innodb_lock_b_ind ON test_innodb_lock(b);
 

常用命令:

 -- 分析行锁定:
 -- 尤其是当等待次数很高,而且每次等待时长也不小的时候,我们就需要分析系统中为什么会有如此多的等待,然后根据分析结果着手指定优化计划。
 -- Innodb_row_lock_current_waits:当前正在等待锁定的数量;
 -- Innodb_row_lock_time:从系统启动到现在锁定总时间长度;
 -- Innodb_row_lock_time_avg:每次等待所花平均时间;
 -- Innodb_row_lock_time_max:从系统启动到现在等待最常的一次所花的时间;
 -- Innodb_row_lock_waits:系统启动后到现在总共等待的次数;
 -- show status like 'innodb_row_lock%';

由于行锁与事务相关,所以在测试之前需要关闭MySql的自动提交:

 -- 关闭自动提交;0关闭,1打开
 set autocommit = 0;

测试行锁读写操作:

请添加图片描述

请添加图片描述

当前会话当关闭MySql自动提交后,修改表中的某一行数据,未提交前其他会话是不可见该修改的数据的;如果当前会话和修改某一行数据其他会话也修改该行数据则其他会话会一直等待,直到持有锁的会话commit后才会执行。
如果当前会话和其他会话操作同一张表的不同行数据时,则相互不影响。

使用行锁时注意,无索引行或索引失效都会导致行锁变为表锁。

间隙锁:

当我们用范围条件而不是相等条件检索数据,并请求共享或排他锁时,InnoDB会给符合条件的已有数据记录的索引项加锁,对于键值在条件范围内但并不存在的记录,叫做“间隙”。InnoDB也会对这个“间隙”加锁,这种锁机制就是所谓的间隙锁。

因为Query执行过程中通过过范围查找的话,他会锁定整个范围内所有的索引键值,即使这个键值并不存在。

间隙锁有一个比较致命的弱点,就是当锁定一个范围键值之后,即使某些不存在的键值也会被无辜的锁定,而造成在锁定的时候无法插入锁定键值范围内的任何数据。在某些场景下这可能会对性能造成很大的危害。

如何锁定一行?

在查询语句使用for update关键字:

 select * from test_innodb_lock where a=8 for update;

请添加图片描述

Innodb存储引擎由于实现了行级锁定,虽然在锁定机制的实现方面所带来的性能损耗可能比表级锁定会要更高一些,但是在整体并发处理能力方面要远远优于MyISAM的表级锁定的。当系统并发量较高的时候,Innodb的整体性能和MylISAM相比就会有比较明显的优势了。
但是,Innodb的行级锁定同样也有其脆弱的一面,当我们使用不当的时候,可能会让Innodb的整体性能表现不仅不能比MyISAM高,甚至可能会更差。

总结:

  • 尽可能让所有数据检索都通过索引来完成,避免无索引行锁升级为表锁。
  • 合理设计索引,尽量缩小锁的范围
  • 尽可能较少检索条件,避免间隙锁
  • 尽量控制事务大小,减少锁定资源量和时间长度
  • 尽可能低级别事务隔离

分库分表

分库分表是两回事儿,可别搞混了,可能是光分库不分表,也可能是光分表不分库,都有可能。分库分表一定是为了支撑高并发、数据量大两个问题的。

分库分表场景:
假设你现在在一个小公司,注册用户就 20 万,每天活跃用户就 1 万,每天单表数据量就 1000,然后高峰期每秒钟并发请求最多就 10 个。随着公司业务发展,过了几年,注册用户数达到了 5000 万,每天活跃用户数 200 万,每天单表数据量 50 万条,数据库磁盘容量不断消耗掉,高峰期并发达到惊人的 5000~8000,这时候你会发现你得系统已经支撑不住了已经挂掉了。 其实在挂掉之前就应该考虑一个数据量得增长,考虑分库分表。

一句话概括,随着业务的发展,数据库会遇到瓶颈,单表得数据量太大,会极大影响你的 sql 执行的性能,到了后面你的 sql 可能就跑的很慢了。所以为了维持功能的正常使用不得不分库分表。

分表:
分表就是把一个表的数据放到多个表中,然后查询的时候你就查一个表。比如按照用户 id 来分表,将一个用户的数据就放在一个表中。然后操作的时候你对一个用户就操作那个表就好了。这样可以控制每个表的数据量在可控的范围内,比如每个表就固定在 200 万以内。

分库:
分库是啥意思?就是你一个库一般我们经验而言,最多支撑到并发 2000,一定要扩容了,而且一个健康的单库并发值你最好保持在每秒 1000 左右,不要太大。那么你可以将一个库的数据拆分到多个库中,访问的时候就访问一个库好了。

常见分库分表中间件

Cobar
阿里 b2b 团队开发和开源的,属于 proxy 层方案,就是介于应用服务器和数据库服务器之间。应用程序通过 JDBC 驱动访问 Cobar 集群,Cobar 根据 SQL 和分库规则对 SQL 做分解,然后分发到 MySQL 集群不同的数据库实例上执行。早些年还可以用,但是最近几年都没更新了,基本没啥人用,差不多算是被抛弃的状态吧。而且不支持读写分离、存储过程、跨库 join 和分页等操作。

TDDL
淘宝团队开发的,属于 client 层方案。支持基本的 crud 语法和读写分离,但不支持 join、多表查询等语法。目前使用的也不多,因为还依赖淘宝的 diamond 配置管理系统。

Atlas
360 开源的,属于 proxy 层方案,以前是有一些公司在用的,但是确实有一个很大的问题就是社区最新的维护都在 5 年前了。所以,现在用的公司基本也很少了。

Sharding-jdbc
当当开源的,属于 client 层方案,是 ShardingSphere 的 client 层方案, ShardingSphere 还提供 proxy 层的方案 Sharding-Proxy。确实之前用的还比较多一些,因为 SQL 语法支持也比较多,没有太多限制,而且截至 2019.4,已经推出到了 4.0.0-RC1 版本,支持分库分表、读写分离、分布式 id 生成、柔性事务(最大努力送达型事务、TCC 事务)。而且确实之前使用的公司会比较多一些(这个在官网有登记使用的公司,可以看到从 2017 年一直到现在,是有不少公司在用的),目前社区也还一直在开发和维护,还算是比较活跃,个人认为算是一个现在也可以选择的方案。

Mycat
基于 Cobar 改造的,属于 proxy 层方案,支持的功能非常完善,而且目前应该是非常火的而且不断流行的数据库中间件,社区很活跃,也有一些公司开始在用了。但是确实相比于 Sharding jdbc 来说,年轻一些,经历的锤炼少一些。

综上,现在其实建议考量的,就是 Sharding-jdbc 和 Mycat,这两个都可以去考虑使用。无论分库还是分表,上面说的那些数据库中间件都是可以支持的。就是基本上那些中间件可以做到你分库分表之后,中间件可以根据你指定的某个字段值,比如说 userid,自动路由到对应的库上去,然后再自动路由到对应的表里去。

Sharding-jdbc 这种 client 层方案的优点在于不用部署,运维成本低,不需要代理层的二次转发请求,性能很高,但是如果遇到升级啥的需要各个系统都重新升级版本再发布,各个系统都需要耦合 Sharding-jdbc 的依赖;

Mycat 这种 proxy 层方案的缺点在于需要部署,自己运维一套中间件,运维成本高,但是好处在于对于各个项目是透明的,如果遇到升级之类的都是自己中间件那里搞就行了。

通常来说,这两个方案其实都可以选用,但是建议中小型公司选用 Sharding-jdbc,client 层方案轻便,而且维护成本低,不需要额外增派人手,而且中小型公司系统复杂度会低一些,项目也没那么多;但是中大型公司最好还是选用 Mycat 这类 proxy 层方案,因为可能大公司系统和项目非常多,团队很大,人员充足,那么最好是专门弄个人来研究和维护 Mycat,然后大量项目直接透明使用即可。

拆分方案

拆分方案一般分为两种一种是水平拆分,一种是垂直拆分。

水平拆分的意思,就是把一个表的数据给弄到多个库的多个表里去,但是每个库的表结构都一样,只不过每个库表放的数据是不同的,所有库表的数据加起来就是全部数据。水平拆分的意义,就是将数据均匀放更多的库里,然后用多个库来扛更高的并发,还有就是用多个库的存储容量来进行扩容。

垂直拆分的意思,就是把一个有很多字段的表给拆分成多个表,或者是多个库上去。每个库表的结构都不一样,每个库表都包含部分字段。一般来说,会将较少的访问频率很高的字段放到一个表里去,然后将较多的访问频率很低的字段放到另外一个表里去。因为数据库是有缓存的,你访问频率高的行字段越少,就可以在缓存里缓存更多的行,性能就越好。这个一般在表层面做的较多一些。

除了垂直和水平拆分外,还有比较流行的分库分表方式,一种是按照range(范围)来分,就是每个库一段连续的数据,这个一般是按比如时间范围来的,但是这种一般较少用,因为很容易产生热点问题,大量的流量都打在最新的数据上了;另一种是按照某个字段的hash值,一下均匀分散。

range:好处在于扩容的时候很简单,因为你只要预备好,给每个月都准备一个库就可以了,到了一个新的月份的时候,自然而然,就会写新的库了;缺点,但是大部分的请求,都是访问最新的数据。实际生产用 range,要看场景。

hash:好处在于可以平均分配每个库的数据量和请求压力;坏处在于说扩容起来比较麻烦,会有一个数据迁移的过程,之前的数据需要重新计算 hash 值重新分配到不同的库或表。

迁移方案

现在有一个未分库分表的系统,未来要分库分表,如何设计才可以让系统从未分库分表动态切换到分库分表上?

方案一:停机迁移方案

  1. 网站或者 app 发布公告,0 点到早上 6 点进行运维,无法访问;
  2. 到时间将系统停掉,执行导数工具,将单库单表的数据读出来,写到分库分表里面去;
  3. 导数完之后,需要改改配置,验证一下数据啥的;

方案二:双写迁移方案

  1. 在线上系统里面,之前所有写库的地方,增删改操作,除了对老库增删改,都加上对新库的增删改;
  2. 重新部署系统,新数据库数据差太多,就写一个导数工具,跑起来读老库数据写新库,跑的时候要注意,老数据不要覆盖掉新数据;
  3. 假设导完数据了,有可能数据还是存在不一致,那么就程序自动做一轮校验,比对新老库每个表的每条数据,就针对那些不一样的,从老库读数据再次写。反复循环,直到两个库每个表的数据都完全一致为止;

id主键问题

分库分表之后你必然要面对的一个问题,就是 id 咋生成?因为要是分成多个表之后,每个表都是从 1 开始累加,那肯定不对啊,需要一个全局唯一的 id 来支持。

分库分表之后需要的id条件: 自增(最好),唯一

利用数据库自增id

往一个库的一个表里插入一条没什么业务含义的数据,获取一个数据库自增的一个 id,拿到这个 id 之后再往对应的分库分表里去写入。缺点是高并发存在瓶颈;优点是简单方便;适用于并发不高,但是数据量太大导致的分库分表扩容,可能每秒最高并发最多就几百,那么就走单独的一个库和表生成自增主键即可。

利用Redis自增

基于对数据库自增的改进,原理就是利用redis的incr命令实现ID的原子性自增。不依赖于数据库,灵活方便,且性能优于数据库,但是如果系统中没有Redis,还需要引入新的组件,会增加系统复杂度。

利用UUID作为主键

UUID一般不会作为主键使用,因为UUID 太长了、占用空间大,作为主键性能太差了,且UUID 不具有有序性,会导致 B+ 树索引在写的时候有过多的随机写操作,总之就是无序的性能开销大;适合于随机生成个什么文件名、编号之类的。

利用系统当前时间

一般如果用这个方案,是将当前时间跟很多其他的业务字段拼接起来,作为一个 id,如果业务上你觉得可以接受,那么也是可以的。你可以将别的业务字段值跟当前时间拼接起来,组成一个全局唯一的编号。

雪花算法

算法思路是是把一个 64 位的 long 型的 id,1 个 bit 是不用的,用其中的 41 bits 作为毫秒数,用 10 bits 作为工作机器 id,12 bits 作为序列号。

  • 1 bit:不用,为啥呢?因为二进制里第一个 bit 为如果是 1,那么都是负数,但是我们生成的 id 都是正数,所以第一个 bit 统一都是 0;
  • 41 bits:表示的是时间戳,单位是毫秒。41 bits 可以表示的数字多达 2^41 - 1 ,也就是可以标识 2^41 - 1 个毫秒值,换算成年就是表示 69 年的时间;
  • 10 bits:记录工作机器 id,代表的是这个服务最多可以部署在 2^10 台机器上,也就是 1024 台机器。但是 10 bits 里 5 个 bits 代表机房 id,5 个 bits 代表机器 id。意思就是最多代表 2^5 个机房(32 个机房),每个机房里可以代表 2^5 个机器(32 台机器);
  • 12 bits:这个是用来记录同一个毫秒内产生的不同 id,12 bits 可以代表的最大正整数是 2^12 - 1 = 4096 ,也就是说可以用这个 12 bits 代表的数字来区分同一个毫秒内的 4096 个不同的 id;

雪花算法相对来说还是比较靠谱的,毫秒数在高位,自增序列在低位,整个ID都是趋势递增的。不依赖数据库等第三方系统,以服务的方式部署,稳定性更高,生成ID的性能也是非常高的,能达到百万计QPS。但是雪花算法强依赖时钟,如果机器上时钟回拨,会导致发号重复或者服务会处于不可用状态。

为了规避雪花算法的缺点,一些国内的大厂做了改进,像美团的Leaf,百度的uid-generator,都是基于雪花算法来实现的。

所以你要真是搞分布式 id 生成,如果是高并发啥的,那么用这个应该性能比较好,一般每秒几万并发的场景,也足够用了。

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值