MySQL结构与sql执行流程

一,一条查询SQL语句是如何执行的

在这里插入图片描述

程序或者工具要操作数据库,第一步要做什么事情?跟数据库建立连接。

1,通信协议

首先,MySQL 必须要运行一个服务,监听默认的 3306 端口。

在开发系统跟第三方对接的时候,必须要弄清楚的有两件事。

第一个就是通信协议,比如我们是用 HTTP 还是 WebService 还是 TCP?

第二个是消息格式,比如我们用 XML 格式,还是 JSON 格式,还是定长格式?报文头长度多少,包含什么内容,每个字段的详细含义。

1)通信协议

MySQL 是支持多种通信协议的,可以使用同步/异步的方式,支持长连接/短连接。

通信类型:同步/异步

同步通信的特点:

1、同步通信依赖于被调用方,受限于被调用方的性能。也就是说,应用操作数据库,线程会阻塞,等待数据库的返回。

2、一般只能做到一对一,很难做到一对多的通信。

异步跟同步相反:

1、异步可以避免应用阻塞等待,但是不能节省 SQL 执行的时间。

2、如果异步存在并发,每一个 SQL 的执行都要单独建立一个连接,避免数据混乱。但是这样会给服务端带来巨大的压力(一个连接就会创建一个线程,线程间切换会占用大量 CPU 资源)。另外异步通信还带来了编码的复杂度,所以一般不建议使用。如果要异步,必须使用连接池,排队从连接池获取连接而不是创建新连接。

一般来说我们连接数据库都是同步连接。

连接方式:长连接/短连接

MySQL 既支持短连接,也支持长连接。短连接就是操作完毕以后,马上 close 掉。长连接可以保持打开,减少服务端创建和释放连接的消耗,后面的程序访问的时候还可以使用这个连接。一般我们会在连接池中使用长连接。

保持长连接会消耗内存。长时间不活动的连接,MySQL 服务器会断开。

show global variables like 'wait_timeout'; -- 非交互式超时时间,如 JDBC 程序
show global variables like 'interactive_timeout'; -- 交互式超时时间,如数据库工具

默认都是 28800 秒,8 小时。

可以用 show status 命令查看 MySQL 当前有多少个连接。

show global status like 'Thread%';

Threads_cached:缓存中的线程连接数。

Threads_connected:当前打开的连接数。

Threads_created:为处理连接创建的线程数。

Threads_running:非睡眠状态的连接数,通常指并发连接数。

每产生一个连接或者一个会话,在服务端就会创建一个线程来处理。反过来,如果要杀死会话,就是 Kill 线程。

可以使用 SHOW PROCESSLIST; (root 用户)查看 SQL 的执行状态。

一些常见的状态

状态含义
Sleep线程正在等待客户端,以向它发送一个新语句
Query线程正在执行查询或往客户端发送数据
Locked该查询被其它查询锁定
Copying to tmp table on disk临时结果集合大于 tmp_table_size。线程把临时表从存储器内部格式改变为磁盘模式,以节约存储器
Sending data线程正在为 SELECT 语句处理行,同时正在向客户端发送数据
Sorting for group线程正在进行分类,以满足 GROUP BY 要求
Sorting for order线程正在进行分类,以满足 ORDER BY 要求

MySQL 服务允许的最大连接数是多少呢?

在 5.7 版本中默认是 151 个,最大可以设置成 16384(2^14)。

show variables like 'max_connections';

show 的参数说明:

1、级别:会话 session 级别(默认);全局 global 级别

2、动态修改:set,重启后失效;永久生效,修改配置文件/etc/my.cnf

set global max_connections = 1000;
通信协议

MySQL 支持哪些通信协议呢?

第一种是 Unix Socket。

比如我们在 Linux 服务器上,如果没有指定-h 参数,它就用 socket 方式登录(省略了-S /var/lib/mysql/mysql.sock)。

它不用通过网络协议,也可以连接到 MySQL 的服务器,它需要用到服务器上的一个物理文件(/var/lib/mysql/mysql.sock)。

select @@socket;

如果指定-h 参数,就会用第二种方式,TCP/IP 协议。

mysql -h192.168.8.211 -uroot -p123456

编程语言的连接模块都是用 TCP 协议连接到 MySQL 服务器的,比如mysql-connector-java-x.x.xx.jar。

在这里插入图片描述

另外还有命名管道(Named Pipes)和内存共享(Share Memory)的方式,这两种通信方式只能在 Windows 上面使用,一般用得比较少。

2)通信方式

在这里插入图片描述

MySQL 使用了半双工的通信方式?

要么是客户端向服务端发送数据,要么是服务端向客户端发送数据,这两个动作不能同时发生。所以客户端发送 SQL 语句给服务端的时候,(在一次连接里面)数据是不能分成小块发送的,不管你的 SQL 语句有多大,都是一次性发送。

比如我们用MyBatis动态SQL生成了一个批量插入的语句,插入10万条数据,values后面跟了一长串的内容,或者 where 条件 in 里面的值太多,会出现问题。这个时候我们必须要调整 MySQL 服务器配置 max_allowed_packet 参数的值(默认是 4M),把它调大,否则就会报错。

另一方面,对于服务端来说,也是一次性发送所有的数据,不能因为你已经取到了想要的数据就中断操作,这个时候会对网络和内存产生大量消耗。

所以,我们一定要在程序里面避免不带 limit 的这种操作,比如一次把所有满足条件的数据全部查出来,一定要先 count 一下。如果数据量的话,可以分批查询。

执行一条查询语句,客户端跟服务端建立连接之后呢?下一步要做什么?

2,查询缓存

MySQL 内部自带了一个缓存模块。

缓存的作用我们应该很清楚了,把数据以 KV 的形式放到内存里面,可以加快数据的读取速度,也可以减少服务器处理的时间。但是 MySQL 的缓存好像比较陌生,从来没有去配置过,也不知道它什么时候生效?

MySQL 的缓存默认是关闭的。

show variables like 'query_cache%';

默认关闭的意思就是不推荐使用,为什么 MySQL 不推荐使用它自带的缓存呢?

主要是因为 MySQL 自带的缓存的应用场景有限,第一个是它要求 SQL 语句必须一模一样,中间多一个空格,字母大小写不同都被认为是不同的的 SQL。

第二个是表里面任何一条数据发生变化的时候,这张表所有缓存都会失效,所以对于有大量数据更新的应用,也不适合。

所以缓存这一块,我们还是交给 ORM 框架(比如 MyBatis 默认开启了一级缓存),或者独立的缓存服务,比如 Redis 来处理更合适。

在 MySQL 8.0 中,查询缓存已经被移除了。

3,语法解析和预处理

为什么一条 SQL 语句能够被识别呢?

这个就是 MySQL 的 Parser 解析器和 Preprocessor 预处理模块。

这一步主要做的事情是对语句基于 SQL 语法进行词法和语法分析和语义的解析。

1)词法解析

词法分析就是把一个完整的 SQL 语句打碎成一个个的单词。

比如一个简单的 SQL 语句:

select name from user where id = 1;

它会打碎成 8 个符号,每个符号是什么类型,从哪里开始到哪里结束。

2)语法分析

第二步就是语法分析,语法分析会对 SQL 做一些语法检查,比如单引号有没有闭合,然后根据 MySQL 定义的语法规则,根据 SQL 语句生成一个数据结构。这个数据结构我们把它叫做解析树(select_lex)。

在这里插入图片描述

任何数据库的中间件,比如 Mycat,Sharding-JDBC(用到了 Druid Parser),都必须要有词法和语法分析功能。

3)预处理

如果写了一个词法和语法都正确的 SQL,但是表名或者字段不存在,会在哪里报错?是在数据库的执行层还是解析器?比如:

select * from penyuyan;

解析器可以分析语法,但是它怎么知道数据库里面有什么表,表里面有什么字段呢?

实际上还是在解析的时候报错,解析 SQL 的环节里面有个预处理器。

它会检查生成的解析树,解决解析器无法解析的语义。比如,它会检查表和列名是否存在,检查名字和别名,保证没有歧义。

预处理之后得到一个新的解析树。

4,查询优化与查询执行计划

1)什么是优化器

得到解析树之后,是不是执行 SQL 语句了呢?

一条 SQL 语句是可以有很多种执行方式的,最终返回相同的结果,他们是等价的。

查询优化器的目的就是根据解析树生成不同的执行计划(Execution Plan),然后选择一种最优的执行计划,MySQL 里面使用的是基于开销(cost)的优化器,那种执行计划开销最小,就用哪种。

可以使用这个命令查看查询的开销:

show status like 'Last_query_cost';

2)优化器作用

MySQL 的优化器能处理哪些优化类型呢?比如

1、当我们对多张表进行关联查询的时候,以哪个表的数据作为基准表。

2、有多个索引可以使用的时候,选择哪个索引。

实际上,对于每一种数据库来说,优化器的模块都是必不可少的,他们通过复杂的算法实现尽可能优化查询效率的目标。

3)优化器是怎么得到执行计划的

首先我们要启用优化器的追踪(默认是关闭的):

SHOW VARIABLES LIKE 'optimizer_trace';
set optimizer_trace='enabled=on';

开启这开关是会消耗性能的,因为它要把优化分析的结果写到表里面,所以不要轻易开启,或者查看完之后关闭它(改成 off)。

接着执行一个 SQL 语句,优化器会生成执行计划:

select t.tcid from teacher t,teacher_contact tc where t.tcid = tc.tcid;

这个时候优化器分析的过程已经记录到系统表里面了,我们可以查询:

select * from information_schema.optimizer_trace\G

它是一个 JSON 类型的数据,主要分成三部分,准备阶段、优化阶段和执行阶段。

expanded_query 是优化后的 SQL 语句。

considered_execution_plans 里面列出了所有的执行计划。

分析完记得关掉它

set optimizer_trace="enabled=off";
SHOW VARIABLES LIKE 'optimizer_trace';

通过追踪优化器,可以看到优化器对sql的初始优化,表的读取顺序,为什么采用了这种读取顺序。为什么采用了某个索引或者采用了全表查询。

4)优化器得到的结果

优化器最终会把解析树变成一个查询执行计划,查询执行计划是一个数据结构。

当然,这个执行计划是不是一定是最优的执行计划呢?不一定,因为 MySQL 也有可能覆盖不到所有的执行计划。

MySQL 提供了一个执行计划的工具。我们在 SQL 语句前面加上 EXPLAIN,就可以看到执行计划的信息。

EXPLAIN select name from user where id=1;

Explain 的结果也不一定最终执行的方式。

5)化器为什么会做出错误决定,使用了不太对的索引?

这里错误决定分两类,第一,彻底错误。第二,基于成本最低,但执行速度不是最快。

  • 第一种情况:由于InnoDB的 MVCC 功能和随机采样方式,默认随机采取8个数据页,当做总体数据。以部分代表整体,本来就有错误的风险。加上数据不断地添加过程中,索引树可能会分裂,结果更加不准确。 解决方案:

    1. 执行 ANALYZE TABLE ,可以重新构建索引,使索引树不过于分裂。
    2. 调整参数,加大InnoDB采样的页数,页数越大越精确,但性能消耗更高。一般不建议这么干。
  • 第二种情况:在优化阶段,会对表中所有索引进行对比,优化器基于成本的原因,选择成本最低的索引,所以会错过最佳索引。带来的问题便是,执行速度很慢。 解决方案:

    第一步:通过explain查看执行计划,结合sql条件查看可以利用哪些索引。

    第二步:使用 force index(indexName)强制走指定索引。弊端就是后期若索引名发生改变,或索引被删除,该sql语句需要调整。

5,存储引擎

1)存储引擎的基本介绍

得到执行计划以后,SQL 语句是不是终于可以执行了?

1、从逻辑的角度来说,我们的数据是放在哪里的,或者说放在一个什么结构里面?

2、执行计划在哪里执行?是谁去执行?

表在存储数据的同时,还要组织数据的存储结构,这个存储结构就是由存储引擎决定的,所以也可以把存储引擎叫做表类型。

在 MySQL 里面,支持多种存储引擎,他们是可以替换的,所以叫做插件式的存储引擎。

2)查看存储引擎

我们数据库里面已经存在的表,我们怎么查看它们的存储引擎呢?

show table status from `数据库名`;

在这里插入图片描述

或者通过 DDL 建表语句来查看。

在 MySQL 里面,我们创建的每一张表都可以指定它的存储引擎,而不是一个数据库只能使用一个存储引擎。存储引擎的使用是以表为单位的。而且,创建表之后还可以修改存储引擎。

一张表使用的存储引擎决定存储数据的结构,那在服务器上它们是怎么存储的呢?先要找到数据库存放数据的路径:

show variables like 'datadir';

默认情况下,每个数据库有一个自己文件夹,以 boot数据库为例。

任何一个存储引擎都有一个 frm 文件,这个是表结构定义文件。

在这里插入图片描述

不同的存储引擎存放数据的方式不一样,产生的文件也不一样,innodb 是 1 个,memory 没有,myisam 是两个。

3)存储引擎比较

常见存储引擎

MyISAM 和 InnoDB 是我们用得最多的两个存储引擎,在 MySQL 5.5 版本之前,默认的存储引擎是 MyISAM,它是 MySQL 自带的。

5.5 版本之后默认的存储引擎改成了 InnoDB,最主要的原因还是 InnoDB 支持事务,支持行级别的锁,对于业务一致性要求高的场景来说更适合。

数据库支持的存储引擎

可以用这个命令查看数据库对存储引擎的支持情况:

show engines ;

其中有存储引擎的描述和对事务、XA 协议和 Savepoints 的支持。

XA 协议用来实现分布式事务(分为本地资源管理器,事务管理器)。

Savepoints 用来实现子事务(嵌套事务)。创建了一个 Savepoints 之后,事务就可以回滚到这个点,不会影响到创建 Savepoints 之前的操作。

在这里插入图片描述

MyISAM(3 个文件)

应用范围比较小。表级锁定限制了读/写的性能,因此在 Web 和数据仓库配置中,它通常用于只读或以读为主的工作。

特点

支持表级别的锁(插入和更新会锁表)。不支持事务。

拥有较高的插入(insert)和查询(select)速度。

存储了表的行数(count 速度更快)。

适合:只读之类的数据分析的项目。

InnoDB(两个文件)

mysql 5.7 中的默认存储引擎。InnoDB 是一个事务安全(与 ACID 兼容)的 MySQL存储引擎,它具有提交、回滚和崩溃恢复功能来保护用户数据。InnoDB 行级锁(不升级为更粗粒度的锁)和 Oracle 风格的一致非锁读提高了多用户并发性和性能。InnoDB 将用户数据存储在聚集索引中,以减少基于主键的常见查询的 I/O。为了保持数据完整性,InnoDB 还支持外键引用完整性约束。

特点

支持事务,支持外键,因此数据的完整性、一致性更高。

支持行级别的锁和表级别的锁。

支持读写并发,写不阻塞读(MVCC)。

特殊的索引存放方式,可以减少 IO,提升查询效率。

适合:经常更新的表,存在并发读写或者有事务处理的业务系统。

Memory(1个文件)

基于内存的存储引擎。

特征:

  • 基于内存的表,服务器重启后,表结构会被保留,但表中的数据会被清空。
  • 不需要进行磁盘IO,比 MYISAM 快了一个数量级。
  • 表级锁,故并发插入性能较低。
  • 每一行是固定的,VARCHAR 列在 memory 存储引擎中会变成 CHAR,可能导致内存浪费。
  • 不支持 BLOB 或 TEXT 列,如果sql返回的结果列中包含 BLOB 或 TEXT,就直接采用 MYISAM 存储引擎,在磁盘上建临时表
  • 支持哈希索引,B+树索引

MEMORY 存储引擎在很多地方可以发挥很好的作用:

  • 用于查找或映射表,例如邮编和州名的映射表
  • 用于缓存周期性聚合数据的结果
  • 用于保存数据分析中产生的中间结果。即SQL执行过程中用到的临时表
  • 监控MySQL内存中的执行情况,例如:information_schema 库下的表基本都是 memory 存储引擎,监控InnoDB缓冲池中page(INNODB_BUFFER_PAGE表),InnoDB缓冲池状态(INNODB_BUFFER_POOL_STATS表)、InnoDB缓存页淘汰记录(INNODB_BUFFER_PAGE_LRU表)、InnoDB锁等待(INNODB_LOCK_WAITS表)、InnoDB锁信息(INNODB_LOCKS表)、InnoDB中正在执行的事务(INNODB_TRX表)等。

MEMORY 存储引擎默认 hash 索引,故等值查询特别快。同时也支持B+树索引。虽然查询速度特别快,但依旧无法取代传统的磁盘建表。

CSV(3个文件)

它的表实际上是带有逗号分隔值的文本文件。csv表允许以csv格式导入或转储数据,以便与读写相同格式的脚本和应用程序交换数据。因为 csv 表没有索引,所以通常在正常操作期间将数据保存在 innodb 表中,并且只在导入或导出阶段使用 csv 表。

特点

不允许空行,不支持索引。格式通用,可以直接编辑,适合在不同数据库之间导入导出。

Archive(2个文件)

这些紧凑的未索引的表用于存储和检索大量很少引用的历史、存档或安全审计信息。

特点:不支持索引,不支持 update delete。

不同的存储引擎提供的特性都不一样,它们有不同的存储机制、索引方式、锁定水平等功能。

在不同的业务场景中对数据操作的要求不同,就可以选择不同的存储引擎来满足我们的需求,这个就是 MySQL 支持这么多存储引擎的原因。

4)如何选择存储引擎

如果对数据一致性要求比较高,需要事务支持,可以选择 InnoDB。

如果数据查询多更新少,对查询性能要求比较高,可以选择 MyISAM。

如果需要一个用于查询的临时表,可以选择 Memory。

6,执行引擎

执行引擎,它利用存储引擎提供的相应的 API 来完成操作。

为什么我们修改了表的存储引擎,操作方式不需要做任何改变?因为不同功能的存储引擎实现的 API 是相同的。

最后把数据返回给客户端,即使没有结果也要返回。

二,MySQL体系结构总结

在这里插入图片描述

1,模块详解

Connector:用来支持各种语言和 SQL 的交互,比如 PHP,Python,Java 的JDBC;

Management Serveices & Utilities:系统管理和控制工具,包括备份恢复、MySQL 复制、集群等等;

Connection Pool:连接池,管理需要缓冲的资源,包括用户密码权限线程等等;

SQL Interface:用来接收用户的 SQL 命令,返回用户需要的查询结果

Parser:用来解析 SQL 语句;

Optimizer:查询优化器;

Cache and Buffer:查询缓存,除了行记录的缓存之外,还有表缓存,Key 缓存,权限缓存等等;

Pluggable Storage Engines:插件式存储引擎,它提供 API 给服务层使用,跟具体的文件打交道。

2,架构分层

总体上,可以把 MySQL 分成三层,跟客户端对接的连接层,真正执行操作的服务层,和跟硬件打交道的存储引擎层。

在这里插入图片描述

1)连接层

客户端要连接到 MySQL 服务器 3306 端口,必须要跟服务端建立连接,那么管理所有的连接,验证客户端的身份和权限,这些功能就在连接层完成。

2)服务层

连接层会把 SQL 语句交给服务层,这里面又包含一系列的流程:

比如查询缓存的判断、根据 SQL 调用相应的接口,对我们的 SQL 语句进行词法和语法的解析(比如关键字怎么识别,别名怎么识别,语法有没有错误等等)。

然后就是优化器,MySQL 底层会根据一定的规则对我们的 SQL 语句进行优化,最后再交给执行器去执行。

3)存储引擎

存储引擎就是我们的数据真正存放的地方,在 MySQL 里面支持不同的存储引擎。再往下就是内存或者磁盘。

三,一条更新sql是如何执行的

更新流程和查询流程有什么不同呢?

基本流程也是一致的,也就是说,它也要经过解析器、优化器的处理,最后交给执行器。区别就在于拿到符合条件的数据之后的操作。

1,缓冲池 Buffer Pool

首先,InnnoDB 的数据都是放在磁盘上的,InnoDB 操作数据有一个最小的逻辑单位,叫做页(索引页和数据页)。我们对于数据的操作,不是每次都直接操作磁盘,因为磁盘的速度太慢了。InnoDB 使用了一种缓冲池的技术,也就是把磁盘读到的页放到一块内存区域里面。这个内存区域就叫 Buffer Pool。

在这里插入图片描述

下一次读取相同的页,先判断是不是在缓冲池里面,如果是,就直接读取,不用再次访问磁盘。

修改数据的时候,先修改缓冲池里面的页。内存的数据页和磁盘数据不一致的时候,我们把它叫做脏页。InnoDB 里面有专门的后台线程把 Buffer Pool 的数据写入到磁盘,每隔一段时间就一次性地把多个修改写入磁盘,这个动作就叫做刷脏。

Buffer Pool 是 InnoDB 里面非常重要的一个结构,它的内部又分成几块区域。

2,InnoDB内存结构和磁盘结构

在这里插入图片描述

1)内存结构

Buffer Pool 主要分为 3 个部分: Buffer Pool、Change Buffer、Adaptive HashIndex,另外还有一个(redo)log buffer。

①BufferPool

Buffer Pool 缓存的是页信息,包括数据页、索引页。

查看服务器状态,里面有很多跟 Buffer Pool 相关的信息:

SHOW STATUS LIKE '%innodb_buffer_pool%';

Buffer Pool 默认大小是 128M(134217728 字节),可以调整。

查看参数(系统变量):

SHOW VARIABLES like '%innodb_buffer_pool%';

内存的缓冲池写满了怎么办?(Redis 设置的内存满了怎么办?)InnoDB 用 LRU算法来管理缓冲池(链表实现,不是传统的 LRU,分成了 young 和 old),经过淘汰的数据就是热点数据。

内存缓冲区对于提升读写性能有很大的作用。

当需要更新一个数据页时,如果数据页在 Buffer Pool 中存在,那么就直接更新好了。

否则的话就需要从磁盘加载到内存,再对内存的数据页进行操作。也就是说,如果没有命中缓冲池,至少要产生一次磁盘 IO,有没有优化的方式呢?

②ChangeBuffer写缓冲

如果这个数据页不是唯一索引,不存在数据重复的情况,也就不需要从磁盘加载索引页判断数据是不是重复(唯一性检查)。这种情况下可以先把修改记录在内存的缓冲池中,从而提升更新语句(Insert、Delete、Update)的执行速度。

这一块区域就是 Change Buffer。5.5 之前叫 Insert Buffer 插入缓冲,现在也能支持 delete 和 update。

最后把 Change Buffer 记录到数据页的操作叫做 merge。什么时候发生 merge?有几种情况:在访问这个数据页的时候,或者通过后台线程、或者数据库 shut down、redo log 写满时触发。

如果数据库大部分索引都是非唯一索引,并且业务是写多读少,不会在写数据后立刻读取,就可以使用 Change Buffer(写缓冲)。写多读少的业务,调大这个值:

SHOW VARIABLES LIKE 'innodb_change_buffer_max_size';

代表 Change Buffer 占 Buffer Pool 的比例,默认 25%。

③Adaptive Hash Index

索引应该是放在磁盘的,为什么要专门把一种哈希的索引放到内存?

④(redo)Log Buffer

如果 Buffer Pool 里面的脏页还没有刷入磁盘时,数据库宕机或者重启,这些数据丢失。如果写操作写到一半,甚至可能会破坏数据文件导致数据库不可用。

为了避免这个问题,InnoDB 把所有对页面的修改操作专门写入一个日志文件,并且在数据库启动时从这个文件进行恢复操作(实现 crash-safe)——用它来实现事务的持久性。

在这里插入图片描述

这个文件就是磁盘的 redo log(叫做重做日志),对应于/var/lib/mysql/目录下的ib_logfile0 和 ib_logfile1,每个 48M。

这 种 日 志 和 磁 盘 配 合 的 整 个 过 程 , 其 实 就 是 MySQL 里 的 WAL 技 术(Write-Ahead Logging),它的关键点就是先写日志,再写磁盘。

show variables like 'innodb_log%';
含义
innodb_log_file_size指定每个文件的大小,默认 48M
innodb_log_files_in_group指定文件的数量,默认为 2
innodb_log_group_home_dir指定文件所在路径,相对或绝对。如果不指定,则为datadir 路径。

同样是写磁盘,为什么不直接写到 db file 里面去?为什么先写日志再写磁盘?

磁盘的最小组成单元是扇区,通常是 512 个字节。

操作系统和内存打交道,最小的单位是页 Page。

操作系统和磁盘打交道,读写磁盘,最小的单位是块 Block。

在这里插入图片描述

如果我们所需要的数据是随机分散在不同页的不同扇区中,那么找到相应的数据需要等到磁臂旋转到指定的页,然后盘片寻找到对应的扇区,才能找到我们所需要的一块数据,一次进行此过程直到找完所有数据,这个就是随机 IO,读取数据速度较慢。

假设我们已经找到了第一块数据,并且其他所需的数据就在这一块数据后边,那么就不需要重新寻址,可以依次拿到我们所需的数据,这个就叫顺序 IO。

刷盘是随机 I/O,而记录日志是顺序 I/O,顺序 I/O 效率更高。因此先把修改写入日志,可以延迟刷盘时机,进而提升系统吞吐。

当然 redo log 也不是每一次都直接写入磁盘,在 Buffer Pool 里面有一块内存区域(Log Buffer)专门用来保存即将要写入日志文件的数据,默认 16M,它一样可以节省磁盘 IO。

在这里插入图片描述

SHOW VARIABLES LIKE 'innodb_log_buffer_size';

需要注意:redo log 的内容主要是用于崩溃恢复。磁盘的数据文件,数据来自 buffer pool。redo log 写入磁盘,不是写入数据文件。

那么,Log Buffer 什么时候写入 log file?

在我们写入数据到磁盘的时候,操作系统本身是有缓存的。flush 就是把操作系统缓冲区写入到磁盘。

log buffer 写入磁盘的时机,由一个参数控制,默认是 1。

SHOW VARIABLES LIKE 'innodb_flush_log_at_trx_commit';
含义
0(延迟写)log buffer 将每秒一次地写入 log file 中,并且 log file 的 flush 操作同时进行。该模式下,在事务提交的时候,不会主动触发写入磁盘的操作。
1(默认,实时写,实时刷)每次事务提交时 MySQL 都会把 log buffer 的数据写入 log file,并且刷到磁盘中去。
2(实时写,延迟刷)每次事务提交时 MySQL 都会把 log buffer 的数据写入 log file。但是 flush 操作并不会同时进行。该模式下,MySQL 会每秒执行一次 flush 操作。

redo log,它又分成内存和磁盘两部分。redo log 有什么特点?

1、redo log 是 InnoDB 存储引擎实现的,并不是所有存储引擎都有。

2、不是记录数据页更新之后的状态,而是记录这个页做了什么改动,属于物理日志。(redo log 记录的是执行的结果)

3、redo log 的大小是固定的,前面的内容会被覆盖。

在这里插入图片描述

check point 是当前要覆盖的位置。如果 write pos 跟 check point 重叠,说明 redolog 已经写满,这时候需要同步 redo log 到磁盘中。

这是 MySQL 的内存结构,总结一下,分为:Buffer pool、change buffer、Adaptive Hash Index、 log buffer。

磁盘结构里面主要是各种各样的表空间,叫做 Table space。

⑤不是说MySQL不建议使用缓存吗?

缓存(cache)是在读取硬盘中的数据时,把最常用的数据保存在内存的缓存区中,再次读取该数据时,就不去硬盘中读取了,而在缓存中读取。缓冲(buffer)是在向硬盘写入数据时,先把数据放入缓冲区,然后再一起向硬盘写入,把分散的写操作集中进行,减少磁盘碎片和硬盘的反复寻道,从而提高系统性能。

然后,InnoDB架构中,有非常重要的一个部分——缓冲池。该缓冲池需要占用服务器内存,且专用于MySQL的服务器,建议把80%的内存交给MySQL。

缓冲池有一个缓存的功能。这个缓存,是InnoDB自带的,而且经常会用到。该缓存功能并不是MySQL架构中的缓存组件。这是两者最大的区别。

  • MySQL组件中的缓存
    1. 所处位置:MySQL架构中的缓存组件
    2. 缓存内容:缓存的是SQL 和 该SQL的查询结果。如果SQL的大小写,格式,注释不一致,则被认为是不同的SQL,重新查询数据库,并缓存一份数据。
    3. 可否关闭:是可以手动关闭,并卸载该组件的。**
  • InnoDB中的缓存
    1. 所处位置:InnoDB架构中的缓冲池
    2. 缓存内容:缓存的是所有需要查找的数据,所在的数据页。
    3. 可否关闭:是InnoDB缓冲池自带的功能,无法关闭,无法卸载。如果InnoDB的缓冲池被关闭或卸载,则InnoDB直接瘫痪。所以说缓冲池是InnoDB的最重要的一部分。

不建议使用MySQL的缓存是指,不建议使用MySQL架构中的缓存组件,并不是同时否定了InnoDB中的缓存功能。

2)磁盘结构

表空间可以看做是 InnoDB 存储引擎逻辑结构的最高层,所有的数据都存放在表空间中。InnoDB 的表空间分为 5 大类。

①系统表空间 system tablespace

在默认情况下 InnoDB 存储引擎有一个共享表空间(对应文件/var/lib/mysql/ibdata1),也叫系统表空间。

InnoDB 系统表空间包含 InnoDB 数据字典和双写缓冲区,Change Buffer 和 UndoLogs),如果没有指定 file-per-table,也包含用户创建的表和索引数据。

1、undo 在后面介绍,因为有独立的表空间。

2、数据字典:由内部系统表组成,存储表和索引的元数据(定义信息)。

3、双写缓冲(InnoDB 的一大特性)

InnoDB 的页和操作系统的页大小不一致,InnoDB 页大小一般为 16K,操作系统页大小为 4K,InnoDB 的页写入到磁盘时,一个页需要分 4 次写。

在这里插入图片描述

如果存储引擎正在写入页的数据到磁盘时发生了宕机,可能出现页只写了一部分的情况,比如只写了 4K,就宕机了,这种情况叫做部分写失效(partial page write),可能会导致数据丢失。

show variables like 'innodb_doublewrite';

如果这个页本身已经损坏了,用它来做崩溃恢复是没有意义的。所以在对于应用 redo log 之前,需要一个页的副本。如果出现了写入失效,就用页的副本来还原这个页,然后再应用 redo log。这个页的副本就是 double write,InnoDB 的双写技术。通过它实现了数据页的可靠性。

跟 redo log 一样,double write 由两部分组成,一部分是内存的 double write,一个部分是磁盘上的 double write。因为 double write 是顺序写入的,不会带来很大的开销。

在默认情况下,所有的表共享一个系统表空间,这个文件会越来越大,而且它的空间不会收缩。

②独占表空间 file-per-table tablespaces

我们可以让每张表独占一个表空间。这个开关通过 innodb_file_per_table 设置,默认开启。

SHOW VARIABLES LIKE 'innodb_file_per_table';

开启后,则每张表会开辟一个表空间,这个文件就是数据目录下的 ibd 文件(例如/var/lib/mysql/gupao/user_innodb.ibd),存放表的索引和数据。

但是其他类的数据,如回滚(undo)信息,插入缓冲索引页、系统事务信息,二次写缓冲(Double write buffer)等还是存放在原来的共享表空间内。

③通用表空间general tablespaces

通用表空间也是一种共享的表空间,跟 ibdata1 类似。

可以创建一个通用的表空间,用来存储不同数据库的表,数据路径和文件可以自定义。语法:

create tablespace ts2673 add datafile '/var/lib/mysql/ts2673.ibd' file_block_size=16K engine=innodb;

在创建表的时候可以指定表空间,用 ALTER 修改表空间可以转移表空间。

create table t2673(id integer) tablespace ts2673;

不同表空间的数据是可以移动的。

删除表空间需要先删除里面的所有表:

drop table t2673;
drop tablespace ts2673;
④临时表空间 temporary tablespaces

存储临时表的数据,包括用户创建的临时表,和磁盘的内部临时表。对应数据目录下的 ibtmp1 文件。当数据服务器正常关闭时,该表空间被删除,下次重新产生。

memory 向temptable的过渡,还有磁盘上建临时表用的引擎是什么?

8.0之前,内存临时表用Memory引擎创建,但假如字段中有BLOB或TEXT,或结果太大,就会转用MYISM在磁盘上建表,8.0之后内存临时表由MEMORY引擎更改为TempTable引擎,相比于前者,后者支持以变长方式存储VARCHAR,VARBINARY等变长字段。从MySQL 8.0.13开始,TempTable引擎支持BLOB字段。如果超过内存表大小,则用InnoDB建表。

小细节
当列中有VARCHAR类型时,MySQL将他读取到内存中,会给他分配定义该VARCHAR时最大的空间,所以定义好VARCHAR的长度非常重要,在磁盘上进行建临时表时,5.7之前默认使用MYISAM建磁盘表。5.7版本,可以让用户自己选择,默认使用InnoDB建磁盘临时表。8.0以后不再让用户选择,直接用InnoDB。

⑤RedoLog
⑥undo log tablespace

undo log(撤销日志或回滚日志)记录了事务发生之前的数据状态(不包括 select)。

如果修改数据时出现异常,可以用 undo log 来实现回滚操作(保持原子性)。

在执行 undo 的时候,仅仅是将数据从逻辑上恢复至事务之前的状态,而不是从物理页面上操作实现的,属于逻辑格式的日志(记录操作)。

redo Log 和 undo Log 与事务密切相关,统称为事务日志。

undo Log 的数据默认在系统表空间 ibdata1 文件中,因为共享表空间不会自动收缩,也可以单独创建一个 undo 表空间。

show global variables like '%undo%';

总结一下一个更新操作的流程

name原值是yhd

update user set name = 'penyuyan' where id=1;

1、事务开始,从内存或磁盘取到这条数据,返回给 Server 的执行器;

2、执行器修改这一行数据的值为 penyuyan;

3、记录 name=yhd到 undo log;

4、记录 name=penyuyan 到 redo log;

5、调用存储引擎接口,在内存(Buffer Pool)中修改 name=penyuyan;

6、事务提交。

内存和磁盘之间,工作着很多后台线程。

⑦一个数据页只有16K,当一个字段超过16K了,怎么存储?

VARCHAR(M)最多能存储的数据

我们知道对于VARCHAR(M)类型的列最多可以占用65535个字节。其中的M代表该类型最多存储的字符数量,如果我们使用ascii字符集的话,一个字符就代表一个字节,我们看看VARCHAR(65535)是否可用:

mysql> CREATE TABLE varchar_size_demo(
    ->     c VARCHAR(65535)
    -> ) CHARSET=ascii ROW_FORMAT=Compact;
ERROR 1118 (42000): Row size too large. The maximum row size for the used table type, not counting BLOBs, is 65535. This includes storage overhead, check the manual. You have to change some columns to TEXT or BLOBs
mysql>

从报错信息里可以看出,MySQL对一条记录占用的最大存储空间是有限制的,除了BLOB或者TEXT类型的列之外,其他所有的列(不包括隐藏列和记录头信息)占用的字节长度加起来不能超过65535个字节。所以MySQL服务器建议我们把存储类型改为TEXT或者BLOB的类型。这个65535个字节除了列本身的数据之外,还包括一些storage overhead,比如说我们为了存储一个VARCHAR(M)类型的列,需要占用3部分存储空间:

  • 真实数据
  • 真实数据占用字节的长度
  • NULL值标识,如果该列有NOT NULL属性则可以没有这部分存储空间

如果该VARCHAR类型的列没有NOT NULL属性,那最多只能存储65532个字节的数据,因为真实数据的长度需要占用2个字节,NULL值标识需要占用1个字节:

mysql> CREATE TABLE varchar_size_demo(
    ->      c VARCHAR(65532)
    -> ) CHARSET=ascii ROW_FORMAT=Compact;
Query OK, 0 rows affected (0.02 sec)

如果VARCHAR类型的列有NOT NULL属性,那最多只能存储65533个字节的数据,因为真实数据的长度需要占用2个字节,不需要NULL值标识:

mysql> DROP TABLE varchar_size_demo;
Query OK, 0 rows affected (0.01 sec)

mysql> CREATE TABLE varchar_size_demo(
    ->      c VARCHAR(65533) NOT NULL
    -> ) CHARSET=ascii ROW_FORMAT=Compact;
Query OK, 0 rows affected (0.02 sec)

如果VARCHAR(M)类型的列使用的不是ascii字符集,那会怎么样呢?来看一下:

mysql> DROP TABLE varchar_size_demo;
Query OK, 0 rows affected (0.00 sec)
mysql> CREATE TABLE varchar_size_demo(
    ->       c VARCHAR(65532)
    -> ) CHARSET=gbk ROW_FORMAT=Compact;
ERROR 1074 (42000): Column length too big for column 'c' (max = 32767); use BLOB or TEXT instead

mysql> CREATE TABLE varchar_size_demo(
    ->       c VARCHAR(65532)
    -> ) CHARSET=utf8 ROW_FORMAT=Compact;
ERROR 1074 (42000): Column length too big for column 'c' (max = 21845); use BLOB or TEXT instead

从执行结果中可以看出,如果VARCHAR(M)类型的列使用的不是ascii字符集,那M的最大取值取决于该字符集表示一个字符最多需要的字节数。比方说gbk字符集表示一个字符最多需要2个字节,那在该字符集下,M的最大取值就是32767,也就是说最多能存储32767个字符;utf8字符集表示一个字符最多需要3个字节,那在该字符集下,M的最大取值就是21845,也就是说最多能存储21845个字符。

记录中的数据太多产生的溢出

我们以ascii字符集下的varchar_size_demo表为例,插入一条记录:

mysql> CREATE TABLE varchar_size_demo(
    ->       c VARCHAR(65532)
    -> ) CHARSET=ascii ROW_FORMAT=Compact;
Query OK, 0 rows affected (0.01 sec)

mysql> INSERT INTO varchar_size_demo(c) VALUES(REPEAT('a', 65532));
Query OK, 1 row affected (0.00 sec)

其中的REPEAT('a', 65532)是一个函数调用,它表示生成一个把字符'a'重复65532次的字符串。前边说过,MySQL中磁盘和内存交互的基本单位是,也就是说MySQL是以为基本单位来管理存储空间的,我们的记录都会被分配到某个中存储。而一个页的大小一般是16KB,也就是16384字节,而一个VARCHAR(M)类型的列就最多可以存储65532个字节,这样就可能造成一个页存放不了一条记录的尴尬情况。

CompactReduntant行格式中,对于占用存储空间非常大的列,在记录的真实数据处只会存储该列的一部分数据,把剩余的数据分散存储在几个连续的页中,只在记录的真实数据处用20个字节存储指向这些页的地址,从而可以找到剩余数据所在的页,如图所示:

在这里插入图片描述

从图中可以看出来,对于CompactReduntant行格式来说,如果某一列中的数据非常多的话,在本记录的真实数据处只会存储该列的前786个字节的数据和一个指向其他页的地址,然后把剩下的数据存放到其他页中,这个过程也叫做行溢出。画一个简图就是这样:

在这里插入图片描述

不只是 VARCHAR(M) 类型的列,其他的 TEXTBLOB 类型的列在存储数据非常多的时候也会发生行溢出

3)后台线程

后台线程的主要作用是负责刷新内存池中的数据和把修改的数据页刷新到磁盘。后台线程分为:master thread,IO thread,purge thread,page cleaner thread。

在这里插入图片描述

①Master Thread - 核心线程

Master Thread是InnoDB存储引擎非常核心的一个后台线程,主要负责将缓冲池中的数据异步刷新到磁盘,保证数据的一致性,包括脏页的刷新、合并插入缓冲、UNDO页的回收等。

InnoDB 1.0.x版本之前

Master Thread具有最高的线程优先级别。内部由多个循环组成:主循环(loop)后台循环(backgroup loop)、刷新循环(flush loop)、暂停循环(suspend loop)。Master Thread会根据数据库运行的状态在loop、backgroup loop、flush loop和suspend loop中进行切换

loop是主循环,大多数的操作都在这个循环中,主要有两大部分的操作——每秒钟的操作和每10秒钟的操作。伪代码如下:

void master_thread()
{
    loop:
    for(int i = 0; i < 10; ++i){
        do thing once per second;
        sleep 1 second if necessary;
    }
    do things once per ten seconds;
    goto loop;
}

每秒一次的操作包括:

  1. 日志缓冲刷新到磁盘,即使这个事务还没有提交(总是)

    即使某个事务还没有提交,InnoDB存储引擎仍然每秒会将重做日志缓冲中的内容刷新到重做日志文件。这也解释了为什么再大的事务提交的时间也是很短的。

  2. 合并插入缓冲(可能)

    合并插入缓冲并不是每秒都会发生的。InnoDB存储引擎会判断当前一秒内发生的IO次数是否小于5次,如果小于5次,InnoDB存储引擎认为当前的IO压力很小,可以执行合并插入缓冲的操作;

  3. 至多刷新100个InnoDB的缓冲池中的脏页到磁盘(可能); 刷新100个脏页也不是每秒都会发生的,InnoDB存储引擎通过判断当前缓冲池中脏页的比例(buf_get_modified_ratio_pct)是否超过了配置文件中 innodb_max_dirty_pages_pct这个参数(默认是75,代表75%),如果超过了这个值,InnoDB存储引擎则认为需要做磁盘同步的操作,将100个脏页写入磁盘中。

  4. 如果当前没有用户活动,则切换到background loop(可能);

综上所述,伪代码可以进一步具体化。

void master_thread()
{
    loop:
    for(int i = 0; i < 10; ++i){
        thread_sleep(1);
        do log buffer flush to disk;
        if(last_one_second_ios < 5)
            do merge at most 5 insert buffer;
        if(buf_get_modified_ratio_pct > innodb_max_dirty_pages_pct)
            do buffer pool flush 100 dirty page;
        if(no user activity)
            goto backgroud loop;
    }
    do things once per ten seconds;
    backgroud loop;
    do something;
    goto loop;
}

每10秒的操作主要是下面几个方面:

  1. 刷新100个脏页到磁盘(可能) InnoDB存储引擎会先判断过去10秒之内磁盘的IO操作是否小于200次,如果是,InnoDB存储引擎认为当前有足够的磁盘IO能力,因此将100个脏页刷新到磁盘。

  2. 合并至多5个插入缓冲(总是)

  3. 将日志缓冲刷新到磁盘(总是)

  4. 删除无用的Undo页(总是)

  5. 刷新100个或者10个脏页到磁盘(总是) InnoDB存储引擎会执行full purge操作,即删除无用的Undo页。对表进行update,delete这类的操作时,原先的行被标记为删除,但是因为一致性读的关系,需要保留这些行版本的信息。但是在full purge过程中,InnoDB存储引擎会判断当前事务系统中已被删除的行是否可以删除,比如有时候可能还有查询操作需要读取之前版本的undo信息,如果可以删除,InnoDB存储引擎会立即将其删除。从源代码中可以看出,InnoDB存储引擎在执行full purge 操作时,每次最多尝试回收20个undo页。

    然后,InnoDB存储引擎会判断缓冲池中脏页的比例(buf_get_modified_ratio_pct),如果有超过70%的脏页,则刷新100个脏页到磁盘,如果脏页的比例小于70%,则只需刷新10%的脏页到磁盘。

伪代码进一步细化:

void master_thread()
{
    loop:
    for(int i = 0; i < 10; ++i){
        thread_sleep(1);
        do log buffer flush to disk;
        if(last_one_second_ios < 5)
            do merge at most 5 insert buffer;
        if(buf_get_modified_ratio_pct > innodb_max_dirty_pages_pct)
            do buffer pool flush 100 dirty page;
        if(no user activity)
            goto backgroud loop;
    }
    if(last_ten_second_ios < 200)
        do buffer pool flush 100 dirty page;

    do merge at most 5 insert buffer;
    do log buffer flush to disk;
    do full purge;
    if(buf_get_modified_ratio_pct > 70%)
        do buffer pool flush 100 dirty page;
    else
        buffer pool flush 10 dirty page;
    goto loop;
    backgroud loop;
    do something;
    goto loop;
}

如果当前没有用户活动(数据库空闲)或者数据库关系,就会切换到backgroud loop这个循环。 backgroud loop会执行以下操作:

  1. 删除无用的Undo页(总是)
  2. 合并20个插入缓冲(总是)
  3. 跳回到主循环(总是)
  4. 不断刷新100个页直到符合条件(可能,需要跳转到flush loop中完成)

如果flush loop中也没有什么事情可以做了,InnoDB存储引擎会切换到suspend_loop,将Master Thread挂起,等待事件的发生。若用户启用了InnoDB存储引擎,却没有使用任何InnoDB存储引擎的表,那么Master Thread总是处于挂起的状态。

最后,Master Thread完整的伪代码如下:

void master_thread()
{
    loop:
    for(int i = 0; i < 10; ++i){
    thread_sleep(1);							// sleep 1秒
        do log buffer flush to disk;
        if(last_one_second_ios < 5)
            do merge at most 5 insert buffer;
        if(buf_get_modified_ratio_pct > innodb_max_dirty_pages_pct)	
        									  // 如果缓冲池中的脏页比例大于innodb_max_dirty_pages_pct(默认是75时)
            do buffer pool flush 100 dirty page;	// 刷新100脏页到磁盘
        if(no user activity)
            goto backgroud loop;
    }
    if(last_ten_second_ios < 200) 	// 如果过去10内磁盘IO次数小于设置的innodb_io_capacity的值(默认是200)
        do buffer pool flush 100 dirty page;

    do merge at most 5 insert buffer; 	// 合并插入缓冲是innodb_io_capacity的5%(10)(总是)
    do log buffer flush to disk;
    do full purge;
    if(buf_get_modified_ratio_pct > 70%)
        do buffer pool flush 100 dirty page;
    else
        buffer pool flush 10 dirty page;

    backgroud loop:	// 后台循环
    do full purge	// 删除无用的undo页 (总是)
    do merge 20 insert buffer;	// 合并插入缓冲是innodb_io_capacity的5%(10)(总是)
    if not idle					// 如果不空闲,就跳回主循环,如果空闲就跳入flush loop
        goto loop:				// 跳到主循环
    else
        goto flush loop

    flush loop:					// 刷新循环
    do buffer pool flush 100 dirty page;
    if(buf_get_modified_ratio_pct > innodb_max_dirty_pages_pct)	
    							// 如果缓冲池中的脏页比例大于innodb_max_dirty_pages_pct的值(默认75%)
        goto flush loop;		// 跳到刷新循环,不断刷新脏页,直到符合条件

    	goto suspend loop;		// 完成刷新脏页的任务后,跳入suspend loop

    suspend loop:
    suspend_thread();			//master线程挂起,等待事件发生
    waiting event;
    goto loop;
}
InnoDB 1.2.x版本之前

1.0.x版本中,InnoDB存储引擎最多只会刷新100个脏页到磁盘,合并20个插入缓冲。如果是在写入密集的应用程序中,每秒可能会产生大于100个的脏页,如果是产生大于20个插入缓冲的情况,那么可能会来不及刷新所有的脏页以及合并插入缓冲。

后来,InnoDB存储引擎提供了参数innodb_io_capacity,用来表示磁盘IO的吞吐量,默认值为200。

mysql> show variables like 'innodb_io_capacity';
+--------------------+-------+
| Variable_name      | Value |
+--------------------+-------+
| innodb_io_capacity | 200   |
+--------------------+-------+
1 row in set (0.00 sec)

对于刷新到磁盘的页的数量,会按照innodb_io_capacity的百分比来进行控制。规则如下:

  1. 在合并插入缓冲时,合并插入缓冲的数量为innodb_io_capacity值的5%;
  2. 在从缓冲区刷新脏页时,刷新脏页的数量为innodb_io_capacity;

如果用户使用的是SSD类的磁盘,可以将innodb_io_capacity的值调高,直到符合磁盘IO的吞吐量为止;

另一个问题是参数innodb_max_dirty_pages_pct的默认值,在1.0.x版本之前,该值的默认值是90,意味着脏页占缓冲池的90%。InnoDB存储引擎在每秒刷新缓冲池和flush loop时会判断这个值,如果该值大于innodb_max_dirty_pages_pct,才会刷新100个脏页,如果有很大的内存,或者数据库服务器的压力很大,这时刷新脏页的速度反而会降低。 后来将innodb_max_dirty_pages_pct的默认值改为了75。这样既可以加快刷新脏页的频率,又能够保证磁盘IO的负载。

mysql> show variables like 'innodb_max_dirty_pages_pct';
+----------------------------+-------+
| Variable_name              | Value |
+----------------------------+-------+
| innodb_max_dirty_pages_pct | 75    |
+----------------------------+-------+
1 row in set (0.00 sec)

还有一个新的参数是innodb_adaptive_flushing(自适应地刷新),该值影响每秒刷新脏页的数量。原来的刷新规则是:脏页在缓冲池所占的比例小于innodb_max_dirty_pages_pct时,不刷新脏页;大于innodb_max_dirty_pages_pct时,刷新100个脏页。随着innodb_adaptive_flushing参数的引入,InnoDB通过一个名为buf_flush_get_desired_flush_rate的函数来判断需要刷新脏页最合适的数量。buf_flush_get_desired_flush_rate函数通过判断产生重做日志的速率来决定最合适的刷新脏页数量。

之前每次进行full purge 操作时,最多回收20个Undo页,从InnoDB 1.0.x版本开始引入了参数innodb_purge_batch_size,该参数可以控制每次full purge回收的Undo页的数量。该参数的默认值为20,并可以动态地对其进行修改。

mysql> show variables like 'innodb_purge_batch_size';
+-------------------------+-------+
| Variable_name           | Value |
+-------------------------+-------+
| innodb_purge_batch_size | 20    |
+-------------------------+-------+
1 row in set (0.00 sec)

这个版本的性能得到了提高。

mysql> show engine innodb status\G
*************************** 1. row ***************************
  Type: InnoDB
  Name: 
Status: 
=====================================
170312 20:14:04 INNODB MONITOR OUTPUT
=====================================
Per second averages calculated from the last 38 seconds
-----------------
BACKGROUND THREAD
-----------------
srv_master_thread loops: 1 1_second, 1 sleeps, 0 10_second, 1 background, 1 flush
srv_master_thread log flush and writes: 1

可以看到主循环进行了1次,每秒的操作进行了1次,10秒一次的操作进行了0次,backgound loop进行了1次,flush loop进行了1次。

InnoDB 1.2.x版本

1.2.x版本中再次对Master Thread进行了优化。 Master Thread的伪代码如下:

if InnoDB is idle
    srv_master_do_idle_tasks();
else
    srv_master_do_active_tasks();

其中srv_master_do_idle_tasks()就是之前版本中每10秒的操作,srv_master_do_active_tasks()处理的是之前每秒中的操作。同时,对于刷新脏页的操作,从Master Thread线程分离到一个单独的Page Cleaner Thread,从而减轻了Master Thread的工作,同时进一步提高了系统的并发性。

②IO Thread

InnoDB中大量使用AIO (Async IO) 来处理IO请求。

IO Thread的作用,是负责这些 IO 请求的回调(call back)

可使用 show engine innodb status看到以下类型

insert buffer thread
log thread
read thread(4个)
write thread(4个)
③Purge Thread

作用

事务被提交后,其所使用的undo log可能不在需要。因此,需要purge thread来回收已经使用并分配的undo页。

来历

以前Master Thread来完成释放undo log,InnoDB1.1独立出来,分担主线程压力。

查看purge thread的数量

mysql> show variables like 'innodb_purge_threads';
+----------------------+-------+
| Variable_name        | Value |
+----------------------+-------+
| innodb_purge_threads | 4     |
+----------------------+-------+
1 row in set (0.02 sec)
④Page Cleaner Thread

作用

脏页刷新到磁盘

来历

以前Master Thread来刷新脏页,InnoDB1.2独立出来,分担主线程压力。

除了 InnoDB 架构中的日志文件,MySQL 的 Server 层也有一个日志文件,叫做binlog,它可以被所有的存储引擎使用。

3,Binlog

binlog 以事件的形式记录了所有的DDL 和DML 语句(因为它记录的是操作而不是数据值,属于逻辑日志),可以用来做主从复制和数据恢复。

跟redo log不一样,它的文件内容是可以追加的,没有固定大小限制。

在开启了 binlog 功能的情况下,我们可以把 binlog 导出成 SQL 语句,把所有的操作重放一遍,来实现数据的恢复。

binlog 的另一个功能就是用来实现主从复制,它的原理就是从服务器读取主服务器的 binlog,然后执行一遍。

有了这两个日志之后,来看一下一条更新语句是怎么执行的:

在这里插入图片描述

例如一条语句:update teacher set name=‘盆鱼宴’ where id=1;

1、先查询到这条数据,如果有缓存,也会用到缓存。

2、把 name 改成盆鱼宴,然后调用引擎的 API 接口,写入这一行数据到内存,同时记录 redo log。这时 redo log 进入 prepare 状态,然后告诉执行器,执行完成了,可以随时提交。

3、执行器收到通知后记录binlog,然后调用存储引擎接口,设置redo log为commit状态。

4、更新完成。

1)事务提交时,redo log和binlog的写入顺序是怎样的?

两阶段提交1

事务开始之后就产生redo log,redo log的落盘并不是随着事务的提交才写入的,而是在事务的执行过程中,便不断写入redo log文件中。一般情况下,innodb_flush_log_at_trx_commit 设置为1,代表每次事务commit时,必须调用 fsync 操作,将重做日志缓冲同步写到磁盘。另外,bin log中 sync_binlog参数设为1,每次事务提交时同步写到磁盘bin log中。

那么就有了一个谁先谁后的问题:redo log 先,bin log 后。

两阶段提交的内容:**事务提交时,redo log处于 pre状态 -> 写入bin log -> 事务真正提交。 **

当发生崩溃恢复时,查看的是bin log是否完整,如果bin log完整,则代表事务已经提交。

如果在两阶段提交过程中,bin log写入失败,则事务无法终止提交,崩溃恢复时就不需要重做。如果bin log写完的一瞬间,服务器宕机了,事务都来不及提交,此时bin log并不是完整的,缺少了最终的commit标记。因此也是提交失败。

简单说,redo log和bin log都可以用于表示事务的提交状态,而两阶段提交就是让这两个状态保持逻辑上的一致。


  1. 多处参考@最闲的辣条github以及口述。 ↩︎

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值