1 什么是事务
1.1 事务的基本概念
事务:一组逻辑操作单元,使数据从一种状态变换到另一种状态。
事务处理的原则:保证所有事务都作为一个工作单元来执行,即使出现了故障,都不能改变这种执行方式。当在一个事务中执行多个操作时,要么所有的事务都被提交( commit ),那么这些修改就永久地保存下来;要么数据库管理系统将放弃所作的所有修改,整个事务回滚( rollback )到最初状态。
1.2 事务的ACID特性
原子性(atomicity)。
原子性是指事务是一个不可分割的工作单位,要么全部提交,要么全部失败回滚
一致性(consistency)
根据定义,一致性是指事务执行前后,数据从一个合法性状态变换到另外一个合法性状态。这种状态是语义上的而不是语法上的,跟具体的业务有关。
隔离型(isolation)
事务的隔离性是指一个事务的执行不能被其他事务干扰,即一个事务内部的操作及使用的数据对并发的其他事务是隔离的,并发执行的各个事务之间不能互相干扰。
持久性(durability)
持久性是指一个事务一旦被提交,它对数据库中数据的改变就是永久性的,接下来的其他操作和数据库故障不应该对其有任何影响。
持久性是通过 事务日志 来保证的。日志包括了 重做日志 和 回滚日志。当我们通过事务对数据进行修改的时候,首先会将数据库的变化信息记录到重做日志中,然后再对数据库中对应的行进行修改。这样做的好处是,即使数据库系统崩溃,数据库重启后也能找到没有更新到数据库系统中的重做日志,重新执行,从而使事务具有持久性。
1.3 事务的状态
事务其实是一个抽象的概念,它其实对应着一个或多个数据库操作,MySQL根据这些操作所执行的不同阶段把事务大致划分成几个状态:
- 活动的(active):事务对应的数据库操作正在执行过程中时,我们就说该事务处在活动的状态。
- 部分提交的(partially committed):当事务中的最后一个操作执行完成,但由于操作都在内存中执行,所造成的影响并没有刷新到磁盘时,我们就说该事务处在部分提交的状态。
- 失败的(failed):当事务处在活动的或者部分提交的状态时,可能遇到了某些错误(数据库自身的错误、操作系统错误或者直接断电等)而无法继续执行,或者人为的停止当前事务的执行,我们就说该事务处在失败的状态。
- 中止的(aborted):如果事务执行了一部分而变为失败的状态,那么就需要把已经修改的事务中的操作还原到事务执行前的状态。换句话说,就是要撤销失败事务对当前数据库造成的影响。我们把这个撤销的过程称
之为回滚。当回滚操作执行完毕时
,也就是数据库恢复到了执行事务之前的状态,我们就说该事务处在了中止的状态。
2 事务的使用
2.1 显式事务
步骤一:START TRANSACTION
或者 BEGIN
,作用是显式开启一个事务。
START TRANSACTION
语句相较于BEGIN
特别之处在于,后边能跟随几个修饰符:READ ONLY
:标识当前事务是一个只读事务,也就是属于该事务的数据库操作只能读取数据,而不能修改数据。READ WRITE
:标识当前事务是一个读写事务,也就是属于该事务的数据库操作既可以读取数据,也可以修改数据。WITH CONSISTENT SNAPSHOT
:启动一致性读。
步骤二:一系列事务中的操作(主要是DML,不含DDL
)。
步骤三:提交事务 或 中止事务(即 回滚事务
)。
# 提交事务。当提交事务后,对数据库的修改是永久性的。
mysql> COMMIT;
# 回滚事务。即撤销正在进行的所有没有提交的修改
mysql> ROLLBACK;
# 将事务回滚到某个保存点。
mysql> ROLLBACK TO [SAVEPOINT]
2.2 隐式事务
MySQL中有一个系统变量autocommit :
mysql> SHOW VARIABLES LIKE 'autocommit';
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| autocommit | ON |
+---------------+-------+
1 row in set (0.01 sec)
如果我们想关闭这种自动提交的功能,可以使用下边两种方法之一:
- 显式的的使用
START TRANSACTION
或者BEGIN
语句开启一个事务。这样在本次事务提交或者回滚前会暂时关闭掉自动提交的功能。 - 把系统变量
autocommit
的值设置为OFF
,就像这样:
3 事务隔离级别
MySQL是一个 客户端/服务器
架构的软件,对于同一个服务器来说,可以有若干个客户端与之连接,每个客户端与服务器连接上之后,就可以称为一个 会话( Session )
。每个客户端都可以在自己的会话中向服务器发出请求语句,一个请求语句可能是某个事务的一部分,也就是对于服务器来说可能同时处理多个事务。
事务有隔离性的特性,理论上在某个事务对某个数据进行访问时,其他事务应该进行排队,当该事务提交之后,其他事务才可以继续访问这个数据。但是这样对性能影响太大,我们既想保持事务的隔离性,又想让服务器在处理访问同一数据的多个事务时性能尽量高些,那就看二者如何权衡取舍了。
3.1 数据并发会产生的问题
丢失更新(Lost Update)
对于两个事务 Session A、Session B,如果事务Session A 修改了另一个未提交事务Session B 修改过的数据,那就意味着发生了丢失更新。
脏读( Dirty Read )
对于两个事务 Session A、Session B,Session A 读取了已经被 Session B 更新但还没有被提交的字段。之后如果 Session B 回滚,那么Session A 读取的内容就是临时且无效的。
不可重复读( Non-Repeatable Read )
对于两个事务Session A、Session B,Session A 读取了一个字段,然后 Session B 更新了该字段。之后 Session A 再次读取同一个字段, 该字段的值发生了变化。这就意味着发生了不可重复读。
我们在Session B中提交了几个隐式事务(注意是隐式事务,意味着语句结束事务就提交了),这些事务都修改了studentno列为1的记录的列name的值,每次事务提交之后,如果Session A中的事务都可以查看到最新的值,这种现象也被称之为不可重复读。
幻读( Phantom )
对于两个事务Session A、Session B, Session A 从一个表中读取了一个字段, 然后 Session B 在该表中插入了一些新的行
。 之后, 如果 Session A 再次读取同一个表, 就会多出几行
。那就意味着发生了幻读。
3.2 SQL中的四种隔离级别
上面介绍了几种并发事务执行过程中可能遇到的一些问题,这些问题有轻重缓急之分,我们给这些问题按照严重性来排一下序:脏写 > 脏读 > 不可重复读 > 幻读
SQL标准中设立了4个隔离级别:
- READ UNCOMMITTED(读未提交):在该隔离级别,
所有事务都可以看到其他未提交事务的执行结果
。不能避免脏读、不可重复读、幻读。 - READ COMMITTED(读已提交):它满足了隔离的简单定义:一个事务只能看见已经提交事务所做的改变。这是大多数数据库系统的默认隔离级别(但不是MySQL默认的)。可以避免脏读,但不可重复读、幻读问题仍然存在。
- REPEATABLE READ (重复读):事务A在读到一条数据之后,此时事务B对该数据进行了修改并提交,那么事务A再读该数据,读到的还是原来的内容。可以避免脏读、不可重复读,但幻读问题仍然存在。这是MySQL的默认隔离级别。
- SERIALIZABLE(可串行化):确保事务可以从一个表中读取相同的行。在这个事务持续期间,禁止其他事务对该表执行插入、更新和删除操作。所有的并发问题都可以避免,但性能十分低下。能避免脏读、不可重复读和幻读。
SQL标准中规定,针对不同的隔离级别,并发事务可以发生不同严重程度的问题,具体情况如下:
隔离级别 | 丢失更新 | 脏读 | 不可重复读 | 幻读 |
---|---|---|---|---|
Read uncommitted | × | √ | √ | √ |
Read committed | × | × | √ | √ |
Repeatable read(默认) | × | × | × | √ |
Serializable | × | × | × | × |
备注 : √ 代表可能出现 , × 代表不会出现 。
4 事务的常见分类(了解一下即可)
从事务理论的角度来看,可以把事务分为以下几种类型:
- 扁平事务(Flat Transactions)
- 带有保存点的扁平事务(Flat Transactions with Savepoints)
- 链事务(Chained Transactions)
- 嵌套事务(Nested Transactions)
- 分布式事务(Distributed Transactions)
5 事务是如何实现的
事务有4种特性:原子性、一致性、隔离性和持久性。那么事务的四种特性到底是基于什么机制实现呢?
- 事务的
隔离性
由锁机制
实现。 - 而事务的原子性、一致性和持久性由事务的 redo 日志和undo 日志来保证。
- REDO LOG 称为重做日志,提供再写入操作,恢复提交事务修改的页操作,用来保证事务的
持久性
。 - UNDO LOG 称为回滚日志,回滚行记录到某个特定版本,用来保证事务的
原子性、一致性
。
5.1 redo log
InnoDB存储引擎是以页为单位来管理存储空间的
。在访问真正的页面之前,需要把在 磁盘上的页
缓存到内存中的 Buffer Pool
之后才可以访问。所有的变更都必须新更新缓冲池中的数据
,然后缓冲池中的脏页会以一定的频率被刷入磁盘(checkPoint机制
),通过缓冲池来优化CPU和磁盘之间的鸿沟,这样就可以保证整体的性能不会下降太快。
5.1.1 为什么需要redo log
一方面,缓冲池可以帮助我们消除CPU和磁盘之间的鸿沟,checkpoint机制可以保证数据的最终落盘,然而由于checkpoint 并不是每次变更的时候就触发的,而是master线程隔一段时间去处理的。所以最坏的情况就是事务提交后,刚写完缓冲池,数据库宕机了,那么这段数据就是丢失的,无法恢复。
事务包含持久性的特性,就是说对于一个已经提交的事务,在事务提交后即使系统发生了崩溃,这个事务对数据库中所做的更改也不能丢失。
那么如何保证这个持久性呢?
-
一个简单的做法:在事务提交完成之前把该事务所修改的所有页面都刷新到磁盘,但是这个简单粗暴的做法有些问题:
- 修改量与刷新磁盘工作量严重不成比例:有时候我们仅仅修改了某个页面中的一个字节,但是我们知道在InnoDB中是以页为单位来进行磁盘IO的,也就是说我们在该事务提交时不得不将一个完整的页面从内存中刷新到磁盘。我们又知道一个页面默认是16KB大小,只修改一个字节就要刷新16KB的数据到磁盘上显然是太小题大做了。
- 随机IO刷新较慢:一个事务可能包含很多语句,即使是一条语句也可能修改许多页面,假如该卖务修改的这些页面可能并不相邻,这就意味着在将某个事务修改的Buffer Pool中的页面刷新到磁盘时,需要进行很多的随机IO,随机IO比顺序IO要慢,尤其对于传统的机械硬盘来说。
-
另一个解决的思路:我们只是想让已经提交了的事务对数据库中数据所做的修改永久生效,即使后来系统崩溃,在重启后也能把这种修改恢复出来。所以我们其实没有必要在每次事务提交时就把该事务在内存中修改过的全部页面刷新到磁盘,只需要把修改了哪些东西记录一下就好。比如,某个事务将系统表空间中第10号页面中偏移量为100 处的那个字节的值 1 改成2 。我们只需要记录一下:将第0号表空间的10号页面的偏移量为100处的值更新为 2 。
5.1.2 redo log 的组成
redo log 用来实现事务的持久性,即事务 ACID 中的 D。其由两部分组成:
- 一是内存中的重做缓冲日志(redo log buffer),其是
易失的
; - 二是重做日志文件 (redo log file),其是
持久的
。
重做缓冲日志(redo log buffer)
在服务器启动时就向操作系统申请了一大片称为redo log buffer的连续内存空间,即redo日志缓冲区。这片内存空间被划分为若干个连续的redo log block。每个redo log block占用 512字节 大小。
参数 innodb_log_buffer_size 可以来设置 redo log buffer的大小
redo log buffer 大小,默认16M ,最大值是4096M,最小值为1M。
mysql> show variables like '%innodb_log_buffer_size%';
+------------------------+----------+
| Variable_name | Value |
+------------------------+----------+
| innodb_log_buffer_size | 16777216 |
+------------------------+----------+
重做日志文件 (redo log file)
如果系统宕机,则通过读取 重做日志文件 (redo log file)
来进行事务的重做。
5.1.3 redo log 的整体流程
- 第1步:先将需要操作的表的原始数据从磁盘中读入内存中来,修改数据的内存拷贝;
- 第2步:生成一条重做日志并写入redo log buffer,记录的是数据被修改后的值(
第二步操作是在事务的执行过程中就开始执行了
,而不是等到commit时才执行); - 第3步:当事务commit时,将redo log buffer中的内容刷新到 redo log file,对 redo log file采用
追加写
的方式; - 第4步:定期将内存中修改的数据刷新到磁盘中(这里涉及到刷盘的略);
5.1.4 redo log 的刷盘策略
redo log的写入并不是直接写入磁盘的,InnoDB引擎会在写redo log的时候先写redo log buffer,之后以一定的频率刷入到真正的redo log file 中。这里的一定频率怎么看待呢?这就是我们要说的刷盘策略。
注意,redo log buffer刷盘到redo log file的过程并不是真正的刷到磁盘中去,只是刷入到文件系统缓存(page cache)中去(这是现代操作系统为了提高文件写入效率做的一个优化),真正的写入会交给系统自己来决定(比如page cache足够大了)。那么对于InnoDB来说就存在一个问题,如果交给系统来同步,同样如果系统宕机,那么数据也丢失了(虽然整个系统宕机的概率还是比较小的)。
针对这种情况,InnoDB给出innodb_flush_log_at_trx_commit 参数,该参数控制 commit提交事务时,如何将 redo log buffer 中的日志刷新到 redo log file 中。它支持三种策略:
- 设置为0 :表示每次事务提交时不进行刷盘操作(都没有将redo log buffer中的内容写入 page cache中,其实就是啥也没做)。(
系统默认master thread每隔1s进行一次重做日志的同步
) - 设置为1 :
表示每次事务提交时都将进行同步,刷盘操作
(默认值
) - 设置为2 :表示每次事务提交时都
只把 redo log buffer 内容写入 page cache
,不进行同步。由os自己决定什么时候同步到磁盘文件
。
另外,InnoDB存储引擎有一个后台线程(master thread),每隔 1 秒,就会把 redo log buffer 中的内容写到文件系统缓存(page cache),然后调用刷盘策略(fsync)。所以,针对设置为0的情况,就是由后台线程进行刷盘。**
但是这种情况下(设置为0时)会存在一个问题:一个没有提交事务的 redo log,也可能会被刷盘。因为在事务执行过程中 redo log 记录是会写入 redo log buffer中,这些 redo log记录会被后台线程刷盘。
5.1.5 不同刷盘策略演示
innodb_flush_log_at_trx_commit=1
事务提交时进行刷盘,但是如果事务持续时间超过1秒,那么后台线程每个1秒就会先进行一次刷盘。
innodb_flush_log_at_trx_commit=2
提交事务时,只是将redo log buffer中的内容写入 page cache,之后由后台线程调用fsync进行刷盘
innodb_flush_log_at_trx_commit=0
5.1.6 redo log file
相关参数设置
- innodb_log_group_home_dir :指定 redo log 文件组所在的路径,默认值为./ ,表示在数据库的数据目录下。MySQL的默认数据目录( var/lib/mysql )下默认有两个名为ib_logfile0 和ib_logfile1 的文件,log buffer中的日志默认情况下就是刷新到这两个磁盘文件中。此redo日志文件位置还可以修改。
- innodb_log_files_in_group:指明redo log file的个数,命名方式如:ib_logfile0,iblogfile1 … iblogfilen。默认2个,最大100个。
mysql> show variables like 'innodb_log_files_in_group'; +---------------------------+-------+ | Variable_name | Value | +---------------------------+-------+ | innodb_log_files_in_group | 2 | +---------------------------+-------+ #ib_logfile0 #ib_logfile1
- innodb_flush_log_at_trx_commit:控制 redo log 刷新到磁盘的策略,默认为1。
- innodb_log_file_size:单个 redo log 文件设置大小,默认值为 48M 。最大值为512G,注意最大值指的是整个 redo log 系列文件之和,即(innodb_log_files_in_group * innodb_log_file_size )不能大于最大值512G。
日志文件组
磁盘上的redo日志文件不止一个,而是以一个日志文件组的形式出现的。在redo日志写入日志文件组的时候,是从 ib_logfile0
开始写,如果写满了,就接着 ib_logfile1
写,以此类推。那如果最后一个文件写满了怎么办?那就重新转到 ib_logfile0
继续写,过程如下:
总共的redo日志文件大小其实就是: innodb_log_file_size × innodb_log_files_in_group 。
采用循环写的方式向redo log日志文件组写数据的话,会导致后写入的redo日志覆盖前面的redo日志,因此也就提出了checkpoint的概念。
checkpoint
在整个日志文件组中还有两个重要的属性,分别是 write pos
和 checkpoint
write pos
是记录当前的位置,一边写一边后移;checkpoint
是记录当前要擦除的位置,也是往后推移。
每次刷盘 redo log记录到日志文件组中,write pos位置就会后移更新。当数据从内存中刷到磁盘中时,那么该数据就没有必要在redo log file中做记录了,那么此时就会将checkpoint后移。write pos 和 checkpoint之间空着的部分还可以用来写入新的 redo log 记录。
如果 write pos 追上 checkpoint ,表示日志文件组满了
,这时候不能再写入新的 redo log记录,MySQL 得停下来,清空一些记录,把 checkpoint 推进一下。
5.2 undo log
redo log是事务持久性的保证,undo log是事务原子性的保证
。在事务中更新数据的前置操作其实是要先写入一个undo log 。
5.2.1 如何理解 undo log日志
事务需要保证 原子性
,也就是事务中的操作要么全部完成,要么什么也不做。但有时候事务执行到一半会出现一些情况,比如:
- 情况一:事务执行过程中可能遇到各种错误,比如服务器本身的错误, 操作系统错误,甚至是突然断电导致的错误。
- 情况二:程序员可以在事务执行过程中手动输入ROLLBACK 语句结束当前事务的执行。
以上情况出现,我们需要把数据改回原先的样子,这个过程称之为回滚
,这样就可以造成一个假象:这个事务看起来什么都没做,所以符合原子性要求。
每当我们要对一条记录做改动时(这里的改动可以指 INSERT、DELETE、UPDATE
),都需要"留一手",把回滚时所需的东西记下来。比如:
- 你插入一条记录时,
至少要把这条记录的主键值记下来
,之后回滚的时候只需要把这个主键值对应的记录删掉就好了。(对于每个INSERT,InnoDB存储引擎会完成一个DELETE) - 你删除了一条记录,至少要把这条记录中的内容都记下来,这样之后回滚时再把由这些内容组成的记录插入到表中就好了。(对于每个DELETE,InnoDB存储引擎会执行一个INSERT)
- 你修改了一条记录,至少要把修改这条记录前的旧值都记录下来,这样之后回滚时再把这条记录更新为旧值就好了。(对于每个UPDATE,InnoDB存储引擎会执行一个相反的UPDATE,将修改前的行放回去)
MysQL把这些为了回滚而记录的这些内容称之为撤销日志或者回滚日志(即undo log)。注意,由于 查询操作SELECT
并不会修改任何用户记录,所以在查询操作执行时,并不需要记录相应的undo日志
。
此外,undo log会产生redo log,也就是undo log的产生会伴随着redo log的产生,这是因为undo log也需要持久性的保护。
5.2.2 undo log的作用
作用1:回滚数据
用户对undo日志可能有误解:undo用于将数据库物理地恢复到执行语句或事务之前的样子,但事实并非如此。undo是逻辑日志,因此只是将数据库逻辑地恢复到原来的样子。所有修改都被逻辑地取消了,但是数据结构和页本身在回滚之后可能大不相同。
这是因为在多用户并发系统中,可能会有数十、数百甚至数千个并发事务。数据库的主要任务就是协调对数据记录的并发访问。比如,一个事务在修改当前一个页中某几条记录,同时还有别的事务在对同一个页中另几条记录进行修改。因此,不能将一个页回滚到事务开始的样子,因为这样会影响其他事务正在进行的工作。
作用2:MVCC
undo的另一个作用是MVCC,即在innoDB存储引擎中MVCC的实现是通过undo来完成。当用户读取一行记录时,若该记录已经被其他事务占用,当前事务可以通过hdo读取之前的行版本信息,以此实现非锁定读取
。
5.2.3 undo log 的存储结构
回滚段与undo页
InnoDB对undo log的管理采用段的方式,也就是回滚段(rollback segment) 。每个回滚段记录了1024 个 undo log segment ,而在每个undo log segment段中进行undo页的申请。
- 在InnoDB1.1版本之前(不包括1.1版本),只有一个rollback segment,因此支持同时在线的事务限制为1024 。虽然对绝大多数的应用来说都已经够用。
- 从1.1版本开始InnoDB支持最大128个rollback segment ,故其支持同时在线的事务限制提高到了128*1024 。
mysql> show variables like 'innodb_undo_logs';
+------------------+-------+
| Variable_name | Value |
+------------------+-------+
| innodb_undo_logs | 128 |
+------------------+-------+
undo页的重用
当我们开启一个事务需要写undo log的时候,就得先去undo log segment中去找到一个空闲的位置,当有空位的时候,就去申请undo页, 在这个申请到的undo页中进行undo log的写入。我们知道mysql默认一页的大小是16k。
为每一个事务分配一个页,是非常浪费的(除非你的事务非常长),假设你的应用的 TPS(每秒处理的事务数目)
为1000,那么1s就需要1000个页,大概需要16M的存储,1分钟大概需要1G的存储。如果照这样下去除非MySQL清理的非常勤快,否则随着时间的推移,磁盘空间会增长的非常快,而且很多空间都是浪费的。
于是undo页就被设计的可以重用了,当事务提交时,并不会立刻删除undo页。因为重用,所以这个undo页可能混杂着其他事务的undo log。undo log在commit后,会被放到一个链表中,然后判断undo页的使用空间是否小于3/4,如果小于3/4的话,则表示当前的undo页可以被重用,那么它就不会被回收,其他事务的undo log可以记录在当前undo页的后面。由于undo log是离散的,所以清理对应的磁盘空间时,效率不高。
回滚段与事务
- 每个事务只会使用一个回滚段,一个回滚段在同一时刻可能会服务于多个事务。
- 当一个事务开始的时候,会制定一个回滚段,在事务进行的过程中,当数据被修改时,原始的数据会被复制到回滚段。
- 在回滚段中,事务会不断填充盘区,直到事务结束或所有的空间被用完。如果当前的盘区不够用,事务会在段中请求扩展下一个盘区,如果所有已分配的盘区都被用完,事务会覆盖最初的盘区或者在回滚段允许的情况下扩展新的盘区来使用。
- 回滚段存在于undo表空间中,在数据库中可以存在多个undo表空间,但同一时刻只能使用一个undo表空间。
- 当事务提交时,InnoDB存储引擎会做以下两件事情:
- 将undo log放入列表中,以供之后的purge操作;
- 判断undo log所在的页是否可以重用,若可以分配给下个事务使用。
回滚段中的数据分类
- 未提交的回滚数据(uncommitted undo information):该数据所关联的事务并未提交,用于实现读一致性,所以该数据不能被其他事务的数据覆盖。
- 已经提交但未过期的回滚数据( committed undo information):该数据关联的事务已经提交,但是仍受到undo retention参数的保持时间的影响。
- 事务已经提交并过期的数据(expired undo information):事务已经提交,而且数据保存时间已经超过undo retention参数指定的时间,属于已经过期的数据。当回滚段满了之后,会优先覆盖"事务已经提交并过期的数据"。
事务提交后并不能马上删除undo log及undo log所在的页。这是因为可能还有其他事务需要通过undo log来得到行记录之前的版本。故事务提交时将undo log放入一个链表中,是否可以最终删除undo log及undo log所在页申purge线程来判断。
5.2.4 undo 类型
在lnnoDB存储引擎中,undo log分为:
- insert undo log
- insert undo log是指在insert操作中产生的undo log。
- 因为insert操作的记录,只对事务本身可见,对其他事务不可见(这是事务隔离性的要求),
故该undo log可以在事务提交后直接删除。不需要进行purge操作。
- update undo log
- update undo log记录的是对
delete
和update
操作产生的undo log。 该undo log可能需要提供MVCC机制,因此不能在事务提交时就进行删除。提交时放入undo log链表,等待purge线程进行最后的删除。
- update undo log记录的是对
5.2.5 undo log 生命周期(生成过程 & 回滚过程)
简要生成过程
以下是 undo + redo 事务简要的生成过程
假设有2个数值,分别是 A = 1 和 B = 2,然后修改 A 为 3,修改 B 为 4
1. start transaction;
2. 记录 A=1 到 undo log;
3. update A = 3;
4.记录 A=3 到 redo log;
5. 记录 B=2 到 undo log;
6. update B = 4;
7.记录 B=4 到 redo log;
8. 将 redo log 刷新到磁盘(具体在commit前刷盘还是在commit后刷盘由刷盘策略决定)
9. commit
- 在1-8步骤的任意一步系统宕机,
事务未提交,该事务就不会对磁盘上的数据做任何影响
。 - 如果在8-9之间宕机,
恢复之后可以选择回滚,也可以选择继续完成事务提交,因为此时redo log已经持久化
。 - 若在9之后系统宕机,
内存映射中变更的数据还来不及刷回磁盘,那么系统恢复之后,可以根据redo log把数据刷回磁盘
。
详细生成过程
对于InnoDB引擎来说,每个行记录除了记录本身的数据之外,还有几个隐藏的列:
- DB_ROWL_ID:如果没有为表显式的定义主键,并且表中也没有定义唯一索引,那么InnoDB会自动为表添加一个row_id的隐藏列作为主键。
- DB_TRX_ID:每个事务都会分配一个事务ID,当对某条记录发生变更时,就会将这个事务的事务ID写入trx_id中。
- DB_ROLL_PTR:回滚指针,本质上就是指向undo log的指针。
当我们执行INSERT时:
begin;
INSERT INTO user (name) VALUES ("tom");
插入的数据都会生成一条 insert undo log,并且数据的回滚指针会指向它。undo log会记录undo log的序号、插入主键的列和值…,那么在进行rollback的时候,通过主键直接把对应的数据删除即可。
当我们执行UPDATE时:
对于更新的操作会产生 update undo log,并且会分 更新主键的和 不更新主键的,假设现在执行执行不更新主键的 UPDATE 操作
UPDATE user SET name="Sun" WHERE id=1;
这时会把老的记录写入新的undo log,让回滚指针指向新的undo log,它的undo no是1,并且新的undo log会指向老的undo log (undo no=0)。
当我们执行更新主键的 UPDATE 操作时
UPDATE user SET id=2 WHERE id=1;
对于更新主键的操作,会先把原来的数据deletemark标识打开,这时并没有真正的删除数据,真正的删除会交给清理线程去判断,然后在后面插入一条新的数据,新的数据也会产生undo log,并且undo log的序号会递增。
可以发现每次对数据的变更都会产生一个undo log,当一条记录被变更多次时,那么就会产生多条undo log
,undo log记录的是变更前的日志,并且 每个undo log的序号是递增的
,那么当要回滚的时候,按照序号依次向前推
,就可以找到我们的原始数据了。
undo log 是如何回滚的
begin;
INSERT INTO user (name) VALUES ("tom");
UPDATE user SET name="Sun" WHERE id=1;
UPDATE user SET id=2 WHERE id=1;
以上面的例子来说,假设执行rollback,那么对应的流程应该是这样:
- 通过undo no=3的日志把id=2的数据删除;
- 通过undo no=2的日志把id=1的数据的deletemark还原成0;
- 通过undo no=1的日志把id=1的数据的name还原成Tom;
- 通过undo no=0的日志把id=1的数据删除。
undo log 是一直保存,还是会在某个时机删除掉呢?
针对于insert undo log
- 因为insert操作的记录,只对事务本身可见,对其他事务不可见。故该undo log可以
在事务提交后直接删除,不需要进行purge操作
。
针对于update undo log
- 该undo log可能需要提供
MVCC机制
,因此不能在事务提交时就进行删除
。提交时放入undo log链表,等待purge线程进行最后的删除
。
5.2.6 补充:purge线程作用(重要)
purge线程两个主要作用是:清理undo页 和 清除page里面带有Delete_Bit标识的数据行。
在InnoDB中,事务中的Delete操作实际上并不是真正的删除掉数据行,而是一种Delete Mark操作,在记录上标识Delete_Bit,而不删除记录。是一种"假删除",只是做了个标记,真正的删除工作需要后台purge线程去完成。
5.3 总结
- undo log是
逻辑日志
,对事务回滚时,只是将数据库逻辑
地恢复到原来的样子。 - redo log是
物理日志
,记录的是数据页的物理变化,undo log不是redo log的逆过程
。