深入理解Mysql事务隔离级别与锁机制

前言

我们的数据库一般都会并发执行多个事务,多个事务可能会并发的对相同的一批数据进行增删改查操作,可能就会导致我们说的脏写、脏读、不可重复读、幻读这些问题。
这些问题的本质都是数据库的多事务并发问题,为了解决多事务并发问题,数据库设计了事务隔离机制、锁机制、MVCC多版本并发控制隔离机制,用一整套机制来解决多事务并发问题。接下来,我们会深入讲解这些机制,让大家彻底理解数据库内部的执行原理。

一、锁详解

锁是计算机协调多个进程或线程并发访问某一资源的机制。
在数据库中,除了传统的计算资源(如CPU、RAM、I/O等)的争用以外,数据也是一种供需要用户共享的资源。如何保证数据并发访问的一致性、有效性是所有数据库必须解决的一个问题,锁冲突也是影响数据库并发访问性能的一个重要因素。

锁分类

性能上:乐观锁和悲观锁
对数据库操作类型上:读锁和写锁
读锁(共享锁,S锁(Shared)):对同一份数据,多个事务进行读不会互相影响。
写锁(排它锁,X锁(eXclusive)):一个事务对一份数据进行写操作,首先会给该行记录加锁。在写的过程中,其他事务不能对该行数据进行读和写操作。
从粒度上分:行锁和表锁

表锁
每次操作锁住整张表。开销小,加锁快;不会出现死锁;锁定粒度大,发生锁冲突的概率最高,并发度最低;一般用在整表数据迁移的场景。
基本操作

--建表SQL
CREATE TABLE `mylock` (
	`id` INT (11) NOT NULL AUTO_INCREMENT,
	`NAME` VARCHAR (20) DEFAULT NULL,
	PRIMARY KEY (`id`)
) ENGINE = MyISAM DEFAULT CHARSET = utf8;

--插入数据
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('1', 'a');
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('2', 'b');
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('3', 'c');
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('4', 'd');            

手动增加表锁

lock table 表名称 read(write),表名称2 read(write);

查看表上加过的锁

show open tables;

删除表锁

unlock tables;

案例分析(加读锁)
在这里插入图片描述
加上读锁不能进行其他的写操作
在这里插入图片描述
释放锁之后
在这里插入图片描述

当前session对该表的增删改查都没有问题,其他session对该表的所有操作被阻塞
案例结论
1、对MyISAM表的读操作(加读锁) ,不会阻寒其他进程对同一表的读请求,但会阻赛对同一表的写请求。只有当读锁释放后,才会执行其它进程的写操作。
2、对MylSAM表的写操作(加写锁) ,会阻塞其他进程对同一表的读和写操作,只有当写锁释放后,才会执行其它进程的读写操作

行锁
每次操作锁住一行数据。开销大,加锁慢(需要找到那一行记录会消耗时间);会出现死锁;锁定粒度最小,发生锁冲突的概率最低,并发度最高。
InnoDB与MYISAM的最大不同有两点:
InnoDB支持事务(TRANSACTION)
InnoDB支持行级锁

行锁演示
一个session开启事务更新不提交,另一个session更新同一条记录会阻塞,更新不同记录不会阻塞
在这里插入图片描述
总结:
MyISAM在执行查询语句SELECT前,会自动给涉及的所有表加读锁,在执行update、insert、delete操作会自动给涉及的表加写锁。
InnoDB在执行查询语句SELECT时(非串行隔离级别),不会加锁。但是update、insert、delete操作会加行锁。

简而言之,就是读锁会阻塞写,但是不会阻塞读。而写锁则会把读和写都阻塞。

二、事务及其ACID属性

事务是一组SQL语句构成的最小逻辑处理单元,不可以再分。事务具有4个属性:
A【原子性】:事务是一个原子操作单元,不可以再分。一个事务中的SQL要么全部成功要么全部失败。

C【一致性】:在事务开始和结束,数据必须保持一致。这意味着所有的数据规则都必须应用于事务的修改,保证数据的完整性。

原子性侧重于操作方面,一致性侧重于数据方面

I【隔离性】:数据库系统提供的一定的隔离机制,保证事务在不受外部并发操作的干扰的“独立”的环境下执行。多个事务之间相互独立,彼此不受干扰。

D【持久性】:事务完成之后,对数据的修改一定是持久化到磁盘上的,即使出现错误还是如此。

并发事务处理带来的问题

更新丢失或脏写:当多个事务同时对某一条数据进行写操作。由于事务之间是相互独立的并不知道彼此的存在,所以在一个事务提交之后另外一个事务也进行了提交。这就会产生更新丢失或者脏写的问题。

脏读:在读未提交隔离级别下可能会出现脏读现象。脏读就是读到了脏数据。意思是:如果一个事务正在读数据,这时另一个事务将数据的值修改了,第一个事务读到的是修改后的数据。但是,第二个事务后面并没有提交事务而是进行了rollback操作,数据的值又变为了原来的值,那么第一个事务读到的就是脏数据。
一句话:事务A读取到了事务B已经修改但尚未提交的数据,还在这个数据基础上做了操作。此时,如果B事务回滚,A读取的数据无效,不符合一致性要求。

不可重复读:一个事务在读取某些数据后的某一段时间,再读取以前读过的数据,发现其读出的数据以及发生了变化或者已经被删除了。两次读出的结果不一致,这不满足事务隔离性。这种现象就叫“不可重复读”。

幻读:一个事务按照相同的条件重新读取以前的数据,发现其他事务插入了其满足条件的数据。这不满足隔离性。

事务隔离级别

“脏读”、“不可重复读”和“幻读”,其实都是数据库读一致性问题,必须由数据库提供一定的事务隔离机制来解决。
不同隔离级别下可能出现的并发问题
数据库的事务隔离越严格,并发副作用越小,但付出的代价也就越大,因为事务隔离实质上就是使事务在一定程度上“串行化”进行,这显然与“并发”是矛盾的。
同时,不同的应用对读一致性和事务隔离程度的要求也是不同的,比如许多应用对“不可重复读"和“幻读”并不敏感,可能更关心数据并发访问的能力。
常看当前数据库的事务隔离级别: show variables like ‘tx_isolation’;
设置事务隔离级别:set tx_isolation=‘REPEATABLE-READ’;
Mysql默认的事务隔离级别是可重复读,用Spring开发程序时,如果不设置隔离级别默认用Mysql设置的隔离级别,如果Spring设置了就用已经设置的隔离级别

下面将为大家演示不同隔离级别下可能出现的并发问题,可以让大家更好地理解事务隔离级别以及并发情况下可能出现的问题。一开始我也是对这些概念懵懵懂懂,后面就是多尝试例子,对自己的理解帮助很大。

事务隔离级别的演示

创建一个表

CREATE TABLE `account` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `name` varchar(255) DEFAULT NULL,
  `balance` int(11) DEFAULT NULL,
  PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('lilei', '450');
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('hanmei', '16000');
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('lucy', '2400');

之后我们将在这张表上进行演示

读未提交
(1)打开一个客户端A,并设置当前事务模式为read uncommitted(未提交读),查询表account的初始值:

set session transaction isolation level read uncommitted;

我们打开两个客户端分别称为客户端A和客户端B。
演示步骤:
1、首先我们在客户端A中执行一次查询语句
2、在客户端B开启事务并执行一条更新语句,此时并不提交事务
3、在客户端A中再次执行查询语句观察两次数据的不同
4、在客户端B中执行rollback操作
客户端A两次查询
客户端B修改数据但不提交事务
上面第一条记录的name字段的值不同请忽略,是我中间改了一名称。
我们发现在客户端B还未提交事务的时候,客户端A就已经读取到了客户端B新增加的记录。这就是“脏读”现象。

那么我们思考一个问题:如果客户端B回滚事务了,客户端A对发生脏读的记录也进行修改。客户端A是使用原来的值呢还是客户端B修改的值呢?我们玩一把看一看现象!!!

在这里插入图片描述
在客户端A执行更新语句update account set balance = balance - 50 where id =1,lilei的balance没有变成200,居然是100,是不是很奇怪,数据不一致啊,如果你这么想就太天真 了,在应用程序中,我们会用150-50=100。客户端A并不知道客户端B的事务进行了回滚,但是在读未提交隔离级别下,对记录进行写操作时会重新从表中读取新的数据,而不是使用之前查的数据。解决“幻读“可以将事务隔离级别切换为“读已提交”。

读已提交
(1)打开一个客户端A,并设置当前事务模式为read committed(读已提交),查询表account的所有记录:

set session transaction isolation level read committed;

客户端A
客户端B
可见,在“读已提交隔离级别下“解决了“脏读”的现象,但是出现了“不可重复读”的现象。这还是不满足隔离性的要求。解决“不可重复读“可以将事务隔离级别切换为“可重复读”。

可重复读
(1)打开一个客户端A,并设置当前事务模式为repeatable read,查询表account的所有记录

set session transaction isolation level repeatable read;

客户端A
客户端B
在客户端A,接着执行update account set balance = balance - 50 where id = 1,balance没有变成300-50=250,lilei的balance值用的是客户端B修改之后的250来算的,所以是200,数据的一致性倒是没有被破坏。
可重复读的隔离级别下使用了MVCC(multi-version concurrency control)机制,select操作不会更新版本号,是快照读(历史版本);insert、update和delete会更新版本号,是当前读(当前版本)。
Mysql默认的隔离级别就是可重复读,Oracle默认的隔离级别是读已提交。

幻读
使用“可重复读“解决了“不可重复读”的线程,但是存在“幻读”的现象,下面为大家演示一下:
客户端A
客户端B
当客户端B新插入一条数据后提交事务,客户端A并没有查询出新添加的记录。但是对新插入的语句执行update操作时却可以执行。这就是幻读的现象。

序列化读【串行化】
(1)打开一个客户端A,并设置当前事务模式为serializable,查询表account的初始值:

set session transaction isolation level serializable;

当客户端A的事务未提交之前,无论是读还是写都会给查询的记录的行加锁。别的事务不能执行写操作。行锁下面以及详细介绍过了
客户端A
客户端B
这里讲一下一个新的锁:间隙锁和临键锁
间隙锁(Gap Lock)
锁的两个值之间的间隙。Mysql的默认隔离级别是repeatable read 在某些情况下可以解决幻读的现象。间隙锁有些情况下可以解决。在两个值的间隙加锁。
假设account表的数据如下:
在这里插入图片描述

那么该表的间隙有:id为**(4,10] (10,20] (20,+∞)**这三个区间。
Session没法在这个范围所包含的所有行记录(包括间隙行记录)以及行记录所在的间隙里插入或修改或删除任何数据,即id在(4,20]区间都无法修改数据,注意最后那个20也是包含在内的。
间隙锁是在可重复读隔离级别下才会生效。
执行语句:update account set balance = balance - 50 where id > 8 and id < 15; 此时客户端B只能等待客户端A事务的提交
客户端A
客户端B
临键锁(Next-key Locks)
Next-Key Locks是行锁与间隙锁的组合。像上面那个例子里的这个(4,20]的整个区间可以叫做临键锁。

无索引行锁会升级为表锁(RR级别会升级为表锁,RC级别不会升级为表锁)
锁主要是加在索引上,如果对非索引字段更新,行锁可能会变表锁

session1 执行:update account set balance = 800 where name = ‘lilei’;
session2 对该表任一行操作都会阻塞住
InnoDB的行锁是针对索引加的锁,不是针对记录加的锁。并且该索引不能失效,否则都会从行锁升级为表锁。

***锁定某一行还可以用lock in share mode(共享锁) 和for update(排它锁)***,例如:select * from test_innodb_lock where a = 2 for update; 这样其他session只能读这行数据,修改则会被阻塞,直到锁定行的session提交
在这里插入图片描述
在这里插入图片描述
行锁自动升级为表锁
在这里插入图片描述
结论
Innodb存储引擎由于实现了行级锁定,虽然在锁定机制的实现方面所带来的性能损耗可能比表级锁定会要更高一下,但是在整体并发处理能力方面要远远优于MYISAM的表级锁定的。当系统并发量高的时候,Innodb的整体性能和MYISAM相比就会有比较明显的优势了。
但是,Innodb的行级锁定同样也有其脆弱的一面,当我们使用不当的时候,可能会让Innodb的整体性能表现不仅不能比MYISAM高,甚至可能会更差。

行锁分析
通过检查InnoDB_row_lock状态变量来分析系统上的行锁的争夺情况

show status like 'innodb_row_lock%';              

对各个状态量的说明如下:
Innodb_row_lock_current_waits: 当前正在等待锁定的数量
Innodb_row_lock_time: 从系统启动到现在锁定总时间长度
Innodb_row_lock_time_avg: 每次等待所花平均时间
Innodb_row_lock_time_max:从系统启动到现在等待最长的一次所花时间
Innodb_row_lock_waits: 系统启动后到现在总共等待的次数

对于这5个状态变量,比较重要的主要是:
Innodb_row_lock_time_avg (等待平均时长)
Innodb_row_lock_waits (等待总次数)
Innodb_row_lock_time(等待总时长)

尤其是当等待次数很高,而且每次等待时长也不小的时候,我们就需要分析系统中为什么会有如此多的等待,然后根据分析结果着手制定优化计划。

查看INFORMATION_SCHEMA系统库锁相关数据表

-- 查看事务
select * from INFORMATION_SCHEMA.INNODB_TRX;

-- 查看锁
select * from INFORMATION_SCHEMA.INNODB_LOCKS;

-- 查看锁等待
select * from INFORMATION_SCHEMA.INNODB_LOCK_WAITS;

-- 释放锁,trx_mysql_thread_id可以从INNODB_TRX表里查看到
kill trx_mysql_thread_id

-- 查看锁等待详细信息
show engine innodb status\G;              

***死锁***

```java
set tx_isolation='repeatable-read';
Session_1执行:select * from account where id=1 for update;
Session_2执行:select * from account where id=2 for update;
Session_1执行:select * from account where id=2 for update;
Session_2执行:select * from account where id=1 for update;
查看近期死锁日志信息:show engine innodb status\G; 

大多数情况mysql可以自动检测死锁并回滚产生死锁的那个事务,但是有些情况mysql没法自动检测死锁

锁优化建议
尽可能让所有数据检索都通过索引来完成,避免无索引行锁升级为表锁
合理设计索引,尽量缩小锁的范围–避免使用表锁
尽可能减少检索条件范围,避免间隙锁
尽量控制事务大小,减少锁定资源量和时间长度,涉及事务加锁的sql尽量放在事务最后执行–涉及事务加锁的sql放在最后,让无锁时间和资源更多。
尽可能低级别事务隔离–可重复读

那么Mysql的事务隔离级别与锁机制就结束了,不知道这些有没有帮助到你们。建议事务隔离机制那里自己使用Mysql的客户端去玩一下试试,印象会更加的深刻。如果有什么错误或者问题可以下面私信。

就到这里啦,我们下期见!!!

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值