事务隔离级别以及锁的实现

概述

我们的数据库一般都会并发执行多个事务,多个事务可能会并发的对相同的一批数据进行增删改查操作,可能就会导致我们说的脏写、脏读、不可重复读、幻读这些问题。这些问题的本质都是数据库的多事务并发问题,为了解决多事务并发问题,数据库设计了事务隔离机制、锁机制、MVCC多版本并发控制隔离机制,用一整套机制来解决多事务并发问题。接下来,我们会深入讲解这些机制,让大家彻底理解数据库内部的执行原理。

事务

事务是由一组SQL语句组成的逻辑处理单元,事务具有以下4个属性,通常简称为事务的ACID属性。原子性(Atomicity) :事务是一个原子操作单元,其对数据的修改,要么全都执行,要么全都不执行。一致性(Consistent) :在事务开始和完成时,数据都必须保持一致状态。这意味着所有相关的数据规则都必须应用于事务的修改,以保持数据的完整性。隔离性(Isolation) :数据库系统提供一定的隔离机制,保证事务在不受外部并发操作影响的“独立”环境执行。这意味着事务处理过程中的中间状态对外部是不可见的,反之亦然。持久性(Durable) :事务完成之后,它对于数据的修改是永久性的,即使出现系统故障也能够保持。

带来的问题

  • 更新丢失(Lost Update)或脏写  当两个或多个事务选择同一行,然后基于最初选定的值更新该行时,由于每个事务都不知道其他事务的存在,就会发生丢失更新问题–最后的更新覆盖了由其他事务所做的更新。
  • 脏读(Dirty Reads)  一个事务正在对一条记录做修改,在这个事务完成并提交前,这条记录的数据就处于不一致的状态;这时,另一个事务也来读取同一条记录,如果不加控制,第二个事务读取了这些“脏”数据,并据此作进一步的处理,就会产生未提交的数据依赖关系。这种现象被形象的叫做“脏读”。  一句话:事务A读取到了事务B已经修改但尚未提交的数据,还在这个数据基础上做了操作。此时,如果B事务回滚,A读取的数据无效,不符合一致性要求。
  • 不可重读(Non-Repeatable Reads)   一个事务在读取某些数据后的某个时间,再次读取以前读过的数据,却发现其读出的数据已经发生了改变、或某些记录已经被删除了!这种现象就叫做“不可重复读”。  一句话:事务A内部的相同查询语句在不同时刻读出的结果不一致,不符合隔离性,如果一个事务中读出的结果不一致,那程序上要做很多判断,不友好。
  • 幻读(Phantom Reads)  一个事务按相同的查询条件重新读取以前检索过的数据,却发现其他事务插入了满足其查询条件的新数据,这种现象就称为“幻读”。  一句话:事务A读取到了事务B提交的新增数据,不符合隔离性

上面都是一些百度都能搜到的解释。虽然枯燥,但是还是要理解一下。

事务的隔离级别

”脏读”、“不可重复读”和“幻读”,其实都是数据库读一致性问题,必须由数据库提供一定的事务隔离机制来解决。

< 下图网上一大堆,随便找了一张。>

其实本质上解决解决隔离级别的问题就是解决并发问题。如果每次访问数据库只有一个线程。肯定不会有问题。那么虽然没有并发问题。那么性能肯定没法用了。而且没种场景对数据的并发程度要求也不一样,我们应该选用符合我们场景的数据安全情况下的最小事务并发程度。 类似于多线程并发

  • 查看当前数据库的事务隔离级别: show variables like ‘tx_isolation’;
  • 设置事务隔离级别:set tx_isolation=‘REPEATABLE-READ’;
  • Mysql默认的事务隔离级别是可重复读。例如用Spring开发程序时,如果不设置隔离级别默认用Mysql设置的隔离级别,如果Spring设置了就用已经设置的隔离级别

锁是计算机协调多个进程或线程并发访问某一资源的机制。在数据库中,除了传统的计算资源(如CPU、RAM、I/O等)的争用以外,数据也是一种供需要用户共享的资源。如何保证数据并发访问的一致性、有效性是所有数据库必须解决的一个问题,锁冲突也是影响数据库并发访问性能的一个重要因素。

锁分类

  • 乐观锁:访问数据的时候假设数据是不变的,但是修改完数据之后做一遍check,是否真的没变再做真正的修改。一般CAS+while循环
  • 悲观锁:访问数据的时候假设数据肯定会变,上来就先加上互斥,在示范锁之前不允许其他线程访问。
  • 读锁:在读数据的时候加锁,此时允许别人来读,但是不允许别人来写。一定程度上提升了并发,没有阻塞读请求。
  • 写锁:在写数据的时候加锁,此时不允许别人来读和写,必须等我写完释放后。大家才能读。
  • 行锁:锁的资源粒度是一行数据
  • 表锁:锁的资源粒度是一张表

mysql的锁

表锁

每次操作锁住整张表。开销小,加锁快;不会出现死锁;锁定粒度大,发生锁冲突的概率最高,并发度最低;一般用在整表数据迁移的场景

‐‐建表SQL
CREATE TABLE `mylock` (
`id` INT (11) NOT NULL AUTO_INCREMENT,
`NAME` VARCHAR (20) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE = MYISAM DEFAULT CHARSET = utf8;

‐‐插入数据
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('1', 'a');
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('2', 'b');
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('3', 'c');
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('4', 'd');
  • 手动增加表锁
lock table 表名称 read(write),表名称2 read(write);
  • 查看表上加过的锁
show open tables;
  • 删除表锁
unlock tables;

案例分析 加读锁

在这里插入图片描述

开另一个session来读写发现,此时可以读。但是不可以写

案例分析 加写锁

在这里插入图片描述
开另一个session来读写发现,此时即不可以读。也是不可以写

总结:

  1. 对MyISAM表的读操作(加读锁) ,不会阻寒其他进程对同一表的读请求,但会阻赛对同一表的写请求。只有当读锁释放后,才会执行其它进程的写操作。并且同一进程不允许写操作
  2. 对MylSAM表的写操作(加写锁) ,会阻塞其他进程对同一表的读和写操作,只有当写锁释放后,才会执行其它进程的读写操作

行锁

每次操作锁住一行数据。开销大,加锁慢;会出现死锁;锁定粒度最小,发生锁冲突的概率最低,并发度最高。
InnoDB与MYISAM的最大不同有两点:

  • InnoDB支持事务(TRANSACTION)
  • InnoDB支持行级锁

为什么MYISAM不支持事务?
这很简单,事务就是为了解决上面脏读、不可重复度等等问题。你都全表加锁了,本来就不存在这样的问题。又何须支持事务。

行锁演示

一个session开启事务更新不提交,另一个session更新同一条记录会阻塞,更新不同记录不会阻塞;
在这里插入图片描述
MyISAM在执行查询语句SELECT前,会自动给涉及的所有表加读锁,在执行update、insert、delete操作会自动给涉及的表加写锁。
InnoDB在执行查询语句SELECT时(非串行隔离级别),不会加锁。但是update、insert、delete操作会加行锁。
简而言之,就是读锁会阻塞写,但是不会阻塞读。而写锁则会把读和写都阻塞。

针对不同的事务隔离级别做行锁演示

 CREATE TABLE `account` (
 `id` int(11) NOT NULL AUTO_INCREMENT,
 `name` varchar(255) DEFAULT NULL,
 `balance` int(11) DEFAULT NULL,
 PRIMARY KEY (`id`)
 ) ENGINE=InnoDB DEFAULT CHARSET=utf8;
 INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('lilei', '450');
 INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('hanmei', '16000');
 INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('lucy', '2400');
读未提交

打开一个客户端A,并设置当前事务模式为read uncommitted(未提交读),查询表account的初始
值:set tx_isolation=‘read-uncommitted’;
在这里插入图片描述

客户端还没有提交事务,但是客户端B已经能看到客户端A修改的事务了。如果在java代码中读到了还没有提交的数据。这时候不做特殊校验就会产生bug;要想解决这个问题可以采用读已提交的隔离级别

读已提交

打开一个客户端A,并设置当前事务模式为read committed(未提交读),查询表account的所有记
录:set tx_isolation=‘read-committed’;
在这里插入图片描述

读已提交:顾名思义,只能读到别的事务已经commit的数据。而不会读到还没有commit的数据。因为此时别的事务可能rollback;

可重复读

打开一个客户端A,并设置当前事务模式为repeatable read,查询表account的所有记录:set tx_isolation=‘repeatable-read’;在同一个事务里面得到数据一直都是一样的。不会改变,即使别的事务提交了数据;
在这里插入图片描述

疑问:

  1. 为什么要做成这样?别的事务都已经提交了。为什么我的事务内select 还不能查看到呢?
    这主要是为了应用程序写代码的时候简单点。否则就得在每次读数据的时候做很多校验
  2. 那既然我只要开启了事务并且查过一遍就在事务内不会改变数据了。那么如果我本事务也要修改数据,岂不是在老的版本基础上进行的修改?
    这一点你想到,人家mysql也想到了,这就通过MVCC机制来保证的。即在写操作时,会重新生成一下当时的快照版本。以最新的版本为基础进行写操作。下一篇再说。

幻读

在这里插入图片描述
客户端B没读到客户端A commit的Id=4 的数据,但是这个时候却可以对id=4的那行数据进行修改。

串行化

打开一个客户端A,并设置当前事务模式为serializable,查询表account的初始值:
set tx_isolation=‘serializable’;

在这里插入图片描述

打开一个客户端B,并设置当前事务模式为serializable,更新相同的id为1的记录会被阻塞等待,更新id为2的记录可以成功,说明在串行模式下innodb的查询也会被加上行锁。
如果客户端A执行的是一个范围查询,那么该范围内的所有行包括每行记录所在的间隙区间范围(就算该行数据还未被插入也会加锁,这种是间隙锁)都会被加锁。此时如果客户端B在该范围内插入数据都会被阻塞所以就避免了幻读。

这种隔离级别并发性极低,开发中很少会用到。

临隙锁

间隙锁,锁的就是两个值之间的空隙。Mysql默认级别是repeatable-read,有办法解决幻读问题吗?间隙锁在某些情况下可以解决幻读问题。

在这里插入图片描述
上面的间隙就有:
(3,10),(10,20),(20,+∞)

在Session_1下面执行 update account set name = ‘zhuge’ where id > 8 and id <18;,则其他Session没法在这个范围所包含的所有行记录(包括间隙行记录)以及行记录所在的间隙里插入或修改任何数据,即id在(3,20]区间都无法修改数据,注意最后那个20也是包含在内的。
间隙锁是在可重复读隔离级别下才会生效。

临键锁(Next-key Locks)

Next-Key Locks是行锁与间隙锁的组合。像上面那个例子里的这个(3,20]的整个区间可以叫做临键锁。

补充(问题实践)

无索引行锁会升级为表锁

锁主要是加在索引上,如果对非索引字段更新,行锁可能会变表锁
session1 执行:update account set balance = 800 where name = ‘lilei’;
session2 对该表任一行操作都会阻塞住InnoDB的行锁是针对索引加的锁,不是针对记录加的锁。并且该索引不能失效,否则都会从行锁升级为表锁。
锁定某一行还可以用lock in share mode(共享锁) 和for update(排它锁),例如:select * from
test_innodb_lock where a = 2 for update; 这样其他session只能读这行数据,修改则会被阻塞,直到锁定行的session提交

在这里插入图片描述

结论
Innodb存储引擎由于实现了行级锁定,虽然在锁定机制的实现方面所带来的性能损耗可能比表级锁定会要更高一下,但是在整体并发处理能力方面要远远优于MYISAM的表级锁定的。当系统并发量高的时候,Innodb的整体性能和MYISAM相比就会有比较明显的优势了。

但是,Innodb的行级锁定同样也有其脆弱的一面,当我们使用不当的时候,可能会让Innodb的整体性能表现不仅不能比MYISAM高,甚至可能会更差。

行锁分析

通过检查InnoDB_row_lock状态变量来分析系统上的行锁的争夺情况

show status like 'innodb_row_lock%';

对各个状态量的说明如下:

  • Innodb_row_lock_current_waits: 当前正在等待锁定的数量
  • Innodb_row_lock_time: 从系统启动到现在锁定总时间长度
  • Innodb_row_lock_time_avg: 每次等待所花平均时间
  • Innodb_row_lock_time_max:从系统启动到现在等待最长的一次所花时间
  • Innodb_row_lock_waits:系统启动后到现在总共等待的次数
    对于这5个状态变量,比较重要的主要是:
  • Innodb_row_lock_time_avg (等待平均时长)
  • Innodb_row_lock_waits (等待总次数)
  • Innodb_row_lock_time(等待总时长)
    尤其是当等待次数很高,而且每次等待时长也不小的时候,我们就需要分析系统中为什么会有如此多的等待,然后根据分析结果着手制定优化计划。

查看INFORMATION_SCHEMA系统库锁相关数据表

 ‐‐ 查看事务
 select * from INFORMATION_SCHEMA.INNODB_TRX;
 
 ‐‐ 查看锁
 select * from INFORMATION_SCHEMA.INNODB_LOCKS;
 
 ‐‐ 查看锁等待
 select * from INFORMATION_SCHEMA.INNODB_LOCK_WAITS;

 ‐‐ 释放锁,trx_mysql_thread_id可以从INNODB_TRX表里查看到
 kill trx_mysql_thread_id

 ‐‐ 查看锁等待详细信息
 show engine innodb status\G

死锁分析

死锁演示

set tx_isolation='repeatable-read';
Session_1执行:select * from account where id=1 for update;
Session_2执行:select * from account where id=2 for update;
Session_1执行:select * from account where id=2 for update;
Session_2执行:select * from account where id=1 for update;

在这里插入图片描述

查看近期死锁日志信息:show engine innodb status\G;
大多数情况mysql可以自动检测死锁并回滚产生死锁的那个事务,但是有些情况mysql没法自动检测死锁

锁优化建议
  • 尽可能让所有数据检索都通过索引来完成,避免无索引行锁升级为表锁
  • 合理设计索引,尽量缩小锁的范围
  • 尽可能减少检索条件范围,避免间隙锁
  • 尽量控制事务大小,减少锁定资源量和时间长度,涉及事务加锁的sql尽量放在事务最后执行
    尽可能低级别事务隔离

写在最后

阿里巴巴-菜鸟网络末端团队常年招人。欢迎有志之士。联系内推。
邮箱:jiadun.wt@alibaba-inc.com

招聘JD: https://job.alibaba.com/zhaopin/position_detail.htm?trace=qrcode_share&positionCode=GP050521
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

七层汉堡王

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值