Mysql中的锁
锁定义
锁是计算机协调多个进程或线程并发访问某一资源的机制。
在数据库中,除了传统的计算资源(如CPU、RAM、I/O等)的争用以外,数据也是一种供需要用户共享的资源。如何保证数据并发访问的一致性、有效性是所有数据库必须解决的一个问题,锁冲突也是影响数据库并发访问性能的一个重要因素。
锁分类
- 从性能上分为乐观锁(用版本对比来实现)和悲观锁 。
- 从对数据库操作的类型分,分为读锁和写锁(都属于悲观锁)。
读锁(共享锁):针对同一份数据,多个读操作可以同时进行而不会互相影 响 。
写锁(排它锁):当前写操作没有完成前,它会阻断其他写锁和读锁,从对数据操作的粒度分,分为表锁和行锁。
表锁
每次操作锁住整张表。开销小,加锁快;不会出现死锁;锁定粒度大,发生锁冲突的概率最高,并发度最低;
数据准备:
DROP TABLE IF EXISTS mylock;
CREATE TABLE `mylock` (
`id` INT (11) NOT NULL AUTO_INCREMENT,
`NAME` VARCHAR (20) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE = MyISAM DEFAULT CHARSET = utf8;
INSERT INTO `mylock` (`id`, `NAME`)
VALUES
('1', 'a');
INSERT INTO `mylock` (`id`, `NAME`)
VALUES
('2', 'b');
INSERT INTO `mylock` (`id`, `NAME`)
VALUES
('3', 'c');
INSERT INTO `mylock` (`id`, `NAME`)
VALUES
('4', 'd');
手动增加表锁的操作:
lock table 表名称 read(write),表名称2 read(write);
查看表上加过的锁 :
show open tables;
删除表锁 :
unlock tables;
接下来通过实例来展示表锁中的读锁和写锁。
表锁之读锁
当前session(会话)和其他session(会话)都可以读该表,当前session(会话)中插入或者更新锁定的表都会报错,其他session(会话)插入或更新则会等待。这里使用的是cmd命令行对mysql进行访问。
-
我们在客户端A中为mylock表添加表锁。
-
我们在客户端A加完锁后,更改id为1的数据,将name修改为aa。
可以看到,当前会话(session)为某一表添加读锁后修改表数据会报错。 -
接下来我们从客户端B中查询mylock表中的数据。
可以看到从客户端B查询数据是可以正常查询的,证明读锁不会阻塞读操作。 -
再尝试从客户端B中修改mylock表中的数据。
可以看到在客户端A中为表mylock添加读锁后,在客户端B中修改mylock表中数据会阻塞。我们在客户端A中将锁释放:
在客户端A将读锁释放后,客户端B执行修改数据。
-
查询加锁的表。
结果展示如下:
表锁之写锁
- 在客户端A为mylock添加写锁并且执行查询和修改操作。
可以看到查询和修改操作均可执行 - 接下来我们在客户端B中进行查询。
可以看到在客户端B查询会阻塞,在客户端将锁释放后可以查询出数据。
- 再次在客户端A中将mylock添加写锁,在客户端B中修改mylock表中的数据。
同理在客户端A中将读锁释放后,客户端B修改数据成功。
表锁总结
MyISAM在执行查询语句(SELECT)前,会自动给涉及的所有表加读锁,在执行增删改操作前,会自动给涉及的表加写锁。
对MyISAM表的读操作(加读锁) ,不会阻寒其他进程对同一表的读请求,但会阻赛对同一表的写请求。只有当读锁释放后,才会执行其它进程的写操作。
对MylSAM表的写操作(加写锁) ,会阻塞其他进程对同一表的读和写操作,只有当写锁释放后,才会执行其它进程的读写操作。
总结:
简而言之,就是读锁会阻塞写,但是不会阻塞读。而写锁则会把读和写都阻塞。
行锁
每次操作锁住一行数据。开销大,加锁慢;会出现死锁;锁定粒度最小,发生锁冲突的概率最低,并发度最高。 InnoDB与MYISAM的最大不同有两点:
- 支持事务(TRANSACTION)。
- 支持行级锁。
行锁支持的事务
事务(Transaction)及其ACID属性 。事务是由一组SQL语句组成的逻辑处理单元,事务具有以下4个属性,通常简称为 事务的ACID属性。
- 原子性(Atomicity) :事务是一个原子操作单元,其对数据的修改,要么全都执行,要么全都不执行。
- 一致性(Consistent):在事务开始和完成时,数据都必须保持一致状态。这意味着所有相关的数据规则都必须应用于事务的修改,以保持数据的完整性;事务结束时,所有的内部数据结构(如B树索引或双向链表)也都必须是正确的。
- 隔离性(Isolation):数据库系统提供一定的隔离机制,保证事务在不受外部并发操作影响的“独立”环境执行。这意味着事务处理过程中的中间状态对外部是不可见的,反之亦然。
- 持久性(Durable) :事务完成之后,它对于数据的修改是永久性的,即使出现系统故障也能够保持。
并发事务带来的问题:
-
更新丢失(Lost Update)。当两个或多个事务选择同一行,然后基于最初选定的值更新该行时,由于每个事务都不知道其他事务的存在,就会发生丢失更新问题–最后的更新覆盖了由其他事务所做的更新。需要说明的是更新丟失是如下情况:
在事务A中修改原数量为100减一,但不提交。
在事务B中修改原数量减一,然后提交。
此时回滚事务A,那么数据仍然为100,事务B修改的数据就丢失了。 -
脏读(Dirty Reads)。一个事务正在对一条记录做修改,在这个事务完成并提交前,这条记录的数据就处于不一致的状态;这时,另一个事务也来读取同一条记录,如果不加控制,第二个事务读取了这些“脏”数据,并据此作进一步的处理,就会产生未提交的数据依赖关系。这种现象被形象的叫做“脏读”。一句话:事务A读取到了事务B已经修改但尚未提交的数据,还在这个数据基础上做了操作。此时,如果B事务回滚,A读取的数据无效,不符合一致性要求。
-
不可重读(Non-Repeatable Reads)。一个事务在读取某些数据后的某个时间,再次读取以前读过的数据,却发现其读出的数据已经发生了改变、或某些记录已经被删除了!这种现象就叫做“不可重复读”。一句话:事务A读取到了事务B已经提交的修改数据,不符合隔离性。
-
幻读(Phantom Reads)。一个事务按相同的查询条件重新读取以前检索过的数据,却发现其他事务插入了满足其查询条件的新数据,这种现象就称为“幻读”。一句话:事务A读取到了事务B提交的新增数据,不符合隔离性。
事务隔离级别
“脏读”、“不可重复读”和“幻读”,其实都是数据库读一致性问题,必须由数据库提供一定的事务隔离机制来解决。
数据库的事务隔离越严格,并发副作用越小,但付出的代价也就越大,因为事务隔 离实质上就是使事务在一定程度上“串行化”进行,这显然与“并发”是矛盾的。 同时,不同的应用对读一致性和事务隔离程度的要求也是不同的,比如许多应用对“不可重复读"和“幻读”并不敏感,可能更关心数据并发访问的能力。
常看当前数据库的事务隔离级别:
show variables like 'tx_isolation';
设置事务隔离级别:
set tx_isolation='REPEATABLE-READ';
行锁展示
以下是示例表结构及数据:
DROP TABLE IF EXISTS account;
CREATE TABLE `account` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`name` varchar(255) DEFAULT NULL,
`balance` int(11) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
INSERT INTO `account` (`name`, `balance`) VALUES ('lilei', '450');
INSERT INTO `account` (`name`, `balance`) VALUES ('hanmei', '16000');
INSERT INTO `account` (`name`, `balance`) VALUES ('lucy', '2400');
一个session开启事务更新不提交,另一个session更新同一条记录会阻塞,更新不同记录不会阻塞。
-
在客户端A中开启事务并添加修改id为1的数据将name修改为lilei666,但不提交。
-
在客户端B将id为1的数据name修改为lilei777,可以看到会话阻塞。
-
将客户端A的事务提交可以看到客户端B的更新执行成功,并将name修改为lilei777。
读未提交
-
打开一个客户端A,并设置当前事务模式为read uncommitted(未提交读),查询表account的初始值。
-
在客户端A的事务提交之前,打开另一个客户端B,更新表account。
-
这时,虽然客户端B的事务还没提交,但是客户端A就可以查询到B已经更新的数据。
-
一旦客户端B的事务因为某种原因回滚,所有的操作都将会被撤销,那客户端A查询到的数据其实就是脏数据。
-
在客户端A执行更新语句update account set balance = balance - 50 where id =1。
lilei777的balance没有变成350,居然是400,是不是很奇怪,数据不一致啊。在应用程序中,我们会用400-50=350,并不知道其他会话回滚了,要想解决这个问题可以采用读已提交的隔离级别。
读已提交
-
打开一个客户端A,并设置当前事务模式为read committed(未提交读),查询表account的所有记录。
-
在客户端A的事务提交之前,打开另一个客户端B,更新表account。
-
这时,客户端B的事务还没提交,客户端A不能查询到B已经更新的数据,解决了脏读问题。
-
客户端B的事务提交。
-
客户端A执行与上一步相同的查询,结果 与上一步不一致,即产生了不可重复读的问题。
可重复读
-
打开一个客户端A,并设置当前事务模式为repeatable read,查询表account的所有记录。
-
在客户端A的事务提交之前,打开另一个客户端B,更新表account并提交。
-
在客户端A查询表account的所有记录,与步骤1查询结果一致,没有出现不可重复读的问题。
-
在客户端A,接着执行update account set balance = balance - 50 where id = 1。
balance没有变成400-50=350,lilei的balance值用的是步骤 (2)中的350来算的,所以是300,数据的一致性倒是没有被破坏。可重复读的隔离级别下使用了MVCC(multi-version concurrency control)机制,select操作不会更新版本号,是快照读(历史版本);insert、update和delete会更新版本号,是当前读(当前版本)。 -
重新打开客户端B,插入一条新数据后提交。
-
在客户端A查询表account的所有记录,没有查出新增数据,所以没有出现幻读。
-
验证幻读。
在客户端A执行update account set balance=888 where id = 4;能更新成功,再次查询能查到客户端B新增的数据。
串行化
-
打开一个客户端A,并设置当前事务模式为serializable,查询表account的初始值。
-
打开一个客户端B,并设置当前事务模式为serializable,插入一条记录阻塞,mysql中事务隔离级别为serializable时会锁表,因此不会出现幻读的情况,这种隔离级别并发性极低,开发中很少会用到。
-
当客户端A提交之后,客户端B插入操作执行。
间隙锁解决幻读
Mysql默认级别是repeatable-read,有办法解决幻读问题吗?
间隙锁在某些情况下可以解决幻读问题 要避免幻读可以用间隙锁在Session1下面执行:
update account set name = 'binga' where id > 10 and id <=20;
则其他Session没法在这个范围所包含的间隙里插入或修改任何数据 ,接下来我们举例说明:
首先我们在表添加两条数据id分别为10和20 :
-
开启客户端A设置事务隔离级别为可重复读,在客户端根据id的条件id>8和id<20将名称修改为demo。
-
开启客户端B,事务隔离级别为可重复读,添加一条id为5的数据,操作会阻塞。
-
客户端A将事务提交,客户端B的添加操作执行。
这里更新的范围是8到20,并没有更新id为5的数据,为什么添加id为5的数据,却不能更新呢?这是因为对于4到10之间,10 到20之间存在间隙,当更新间隙之前的数据时,整个间隙会被锁住,这就是间隙锁,这也是为什么间隙锁可以解决幻读原因,当然20到无穷也存在间隙锁。
无索引行锁会升级为表锁
无索引行锁会升级为表锁:锁主要是加在索引上,如果对非索引字
段更新, 行锁可能会变表锁
session1执行:
update account set balance = 800 where name = 'lilei';
session2对该表任一行操作(修改)都会阻塞住 。InnoDB的行锁是针对索引加的锁,不是针对记录加的锁。并且该索引不能失效,否则都会从行锁升级为表锁。
锁定某一行还可以用lock in share mode(共享锁) 和for update(排它锁),例如:
select * from test_innodb_lock where a = 2 for update;
这样其他session只能读这行数据,修改则会被阻塞,直到锁定行的session提交。
行锁分析
通过检查InnoDB_row_lock状态变量来分析系统上的行锁的争夺情况。
show status like'innodb_row_lock%';
对各个状态量的说明如下:
Innodb_row_lock_current_waits: 当前正在等待锁定的数量
Innodb_row_lock_time:从系统启动到现在锁定总时间长度
Innodb_row_lock_time_avg: 每次等待所花平均时间
Innodb_row_lock_time_max:从系统启动到现在等待最长的一次所花时间
Innodb_row_lock_waits:系统启动后到现在总共等待的次数
对于这5个状态变量,比较重要的主要是:
Innodb_row_lock_time_avg (等待平均时长)
Innodb_row_lock_waits (等待总次数)
Innodb_row_lock_time(等待总时长)
尤其是当等待次数很高,而且每次等待时长也不小的时候,我们就需要分析系统中为什么会有如此多的等待,然后根据分析结果着手制定优化计划。
死锁
set tx_isolation='repeatable-read';
Session_1执行:
select * from account where id=1 for update;
Session_2执行:
select * from account where id=2 for update;
Session_1执行:
select * from account where id=2 for update;
Session_2执行:
select * from account where id=1 for update;
查看近期死锁日志信息:
show engine innodb status\G;
大多数情况mysql可以自动检测死锁并回滚产生死锁的那个事务,但是有些情况mysql没法自动检测死锁。
优化建议
- 尽可能让所有数据检索都通过索引来完成,避免无索引行锁升级为表锁
。从上面的示例我们看到当通过无索引条件更新数据时,会由行锁升级为表锁,大大降低并发性能。 - 合理设计索引,尽量缩小锁的范围 。
- 尽可能减少检索条件范围,避免间隙锁 。间隙锁使用不当,会导致批量更新或添加操作由并行变为串行。
- 尽量控制事务大小,减少锁定资源量和时间长度,涉及事务加锁的 sql 尽量放在事务最后执行 。行锁不是在事务开启后就添加的,而是在事务中执行完更新语句后会添加行锁,那么在事务中将加锁的sql放在事务后面执行,可以减少事务持有锁的时间,从而提高并发度。
- 尽可能低级别事务隔离事务隔离级别越高,其并发度越低。