【MySQL45讲】唯一索引和普通索引的选择

一、案例背景

针对唯一索引和普通索引的区别,在不同的业务场景下,应该选择普通索引,还是唯一索引?

假设在维护一个市民系统,每个人都有一个唯一的身份证号,而且业务代码已经保证了不会写入两个重复的身份证号

如果市民系统需要按照身份证号查姓名,就会执行类似这样的 SQL语句:

select name from CUser where id_card = 'xxxxxxxyyyyyyzzzzz';

所以,一定会考虑在id_card字段上建索引

由于身份证号字段比较大,不建议把身份证号当做主键,那么现在有两个选择:

  • 要么给id_card字段创建唯一索引
  • 要么给id_card字段创建普通索引

如果业务代码已经保证了不会写入重复的身份证号,那么这两个选择逻辑上都是正确的

现在从性能的角度考虑,选择唯一索引还是普通索引呢?选择的依据是什么呢?

简单起见,还是使用【MySQL45讲】深入浅出索引(上) 中的例子来说明:

表中有字段k,假设设字段 k 上的值都不重复,InnoDB的索引组织结构如下:
在这里插入图片描述
接下来,从这两种索引对查询语句和更新语句的性能影响来分析

二、查询过程

假设执行查询的语句:

select id from T where k=5

这个查询语句在索引树上查找的过程,先是通过B+树从树根开始,按层搜索到叶子节点(也就是右下角这个数据页),然后数据页内部通过二分法来定位记录

  1. 普通索引
    查找到满足条件的第一个记录(5,500)后,需要查找下一个记录,直到碰到第一个不满足k=5条件的记录

  2. 唯一索引
    由于索引定义了唯一性,查找到第一个满足条件的记录后,就会停止继续检索

那么,这个不同带来的性能差距会有多少呢?答案是微乎其微

InnoDB的数据是按数据页为单位来读写,也就是说,当需要读一条记录时,并不是将这个记录本身从磁盘读出来,而是以页为单位,将其整体读入内存,在InnoDB中,每个数据页的大小默认是16KB

因为引擎是按页读写的,所以说,当找到k=5的记录的时候,它所在的数据页就都在内存里了

那么,对于普通索引来说,要多做的那一次查找和判断下一条记录的操作,就只需要一次指针寻找和一次计算

当然,如果k=5这个记录刚好是这个数据页的最后一个记录,那么要取下一个记录,必须读取 下一个数据页,这个操作会稍微复杂一些
但是,我们之前计算过,对于整型字段,一个数据页可以放近千个key,因此出现这种情况的 概率会很低

所以,我们计算平均性能差异时,仍可以认为这个操作成本对于现在的CPU来说可以忽略不计

三、更新过程

为了说明普通索引和唯一索引对更新语句性能的影响这个问题,需要先介绍一下change buffer

3.1 更新数据页的逻辑

  1. 如果数据页在内存中就直接更新
  2. 如果这个数据页还没有在内存中,在不影响数据一致性的前提下,InooDB会将这些更新操作缓存在change buffer 中,这样就不需要从磁盘中读入这个数据页
    在下次查询需要访问这个数据页的时候,将数据页读入内存,然后执行change buffer中与这个页有关的操作,通过这种方式就能保证这个数据逻辑的正确性

注: 虽然名字叫作change buffer,实际上它是可以持久化的数据
也就是说, change buffer在内存中有拷贝,也会被写入到磁盘上

3.2 merge

将change buffer中的操作应用到原数据页,得到最新结果的过程称为merge

3.3 merge触发时机:

访问这个数据页会触发merge
系统有后台线程会定期merge
在数据库正常关闭(shutdown)的过程中会执行merge操作

3.4 change buffer优势

显然,如果能够将更新操作先记录在change buffer,减少读磁盘,语句的执行速度会得到明显的提升
而且,数据读入内存是需要占用buffer pool的,所以这种方式还能够避免占用内存,提高内存利用率

那么,什么条件下可以使用change buffer呢?

3.5 唯一索引

唯一索引所有的更新操作都要先判断这个操作是否违反唯一性约束
比如,要插 入(4,400)这个记录,就要先判断现在表中是否已经存在k=4的记录,而这必须要将数据页读入内存才能判断。如果都已经读入到内存,那直接更新内存会更快,就没必要使用change buffer

因此,唯一索引的更新不能使用change buffer,只有普通索引可以使用

注:
change buffer用的是buffer pool里的内存,因此不能无限增大 change
buffer的大小,可以通过参数innodb_change_buffer_max_size来动态设置,这个参数设置为50的时候,表示change buffer的大小最多只能占用buffer pool的50%

3.6 插入数据InnoDB处理流程

如果要在这张表中插入一 个新记录(4,400)的话,InnoDB的处理流程是怎样的?

第一种情况是,这个记录要更新的目标页在内存中,InnoDB的处理流程如下:

  • 唯一索引
    找到3和5之间的位置,判断到没有冲突,插入这个值,语句执行结束

  • 普通索引
    找到3和5之间的位置,插入这个值,语句执行结束

这样看来,普通索引和唯一索引对更新语句性能影响的差别,只是一个判断,只会耗费微小的CPU时间

第二种情况是,这个记录要更新的目标页不在内存中。InnoDB的处理流程如下:

  • 唯一索引
    需要将数据页读入内存,判断到没有冲突,插入这个值,语句执行结束

  • 普通索引
    则是将更新记录在change buffer,语句执行就结束

将数据从磁盘读入内存涉及随机IO的访问,是数据库里面成本最高的操作之一
change buffer因为减少了随机磁盘访问,所以对更新性能的提升是会很明显的

某个业务的库内存命中率突然从99%降低到了75%,整个系统处于阻塞状态,更新语句全部堵住。而探究其原因后, 发现这个业务有大量插入数据的操作,而在前一天把其中的某个普通索引改成了唯一索引

四、change buffer的使用场景

通过上面的分析,已经清楚使用change buffer对更新过程的加速作用,也清楚change buffer只限于用在普通索引的场景下,而不适用于唯一索引

现在有一个问题就是:普通索引的所有场景,使用change buffer都可以起到加速作用吗?

4.1 原因分析

merge的时候是真正进行数据更新的时刻,而change buffer的主要目的就是将记录的变更动作缓存下来
所以在一个数据页做merge之前,change buffer记录的变更越多(即这个页面上要更新的次数越多),收益就越大

4.2 不同业务的影响

  • 写多读少的业务

对于写多读少的业务来说,页面在写完以后马上被访问到的概率比较小,此时change buffer的使用效果最好
这种业务模型常见的就是账单类、日志类的系统

  • 更新后立即查询的业务

假设一个业务的更新模式是写入之后马上会做查询,那么即使满足了条件,将更新先记录在change buffer,但之后由于马上要访问这个数据页,会立即触发merge过程,这样随机访问IO的次数不会减少,反而增加了change buffer的维护代价
所以,对于这种业务模式,change buffer反而起到了副作用

五、索引选择和实践

那普通索引和唯一索引应该怎么选择?

其实,这两类索引在查询能力上是没差别的,主要考虑的是对更新性能的影响,因此,建议尽量选择普通索引

如果所有的更新后面,都马上伴随着对这个记录的查询,那么应该关闭change buffer,而在其他情况下,change buffer都能提升更新性能

当一 个类似"历史数据"的库,并且出于成本考虑用的是机械硬盘时,那需要特别关注这些表里的索引,尽量使用普通索引,然后把change buffer尽量开大,以确保这个"历史数据"表的数据写入速度

六、change buffer 和 redo log

WAL 提升性能的核心机制是尽量减少随机读写

redo log和change buffer的概念很容易混淆,所以,在同一个流程里来说明,以便于区分这两个概念

现在要在表上执行这个插入语句:

mysql> insert into t(id,k) values(id1,k1),(id2,k2);

这里,假设当前k索引树的状态,查找到位置后

  • k1所在的数据页在内存(InnoDB buffer pool)中
  • k2所在的数据页不在内存中

带change buffer的更新状态图:
在这里插入图片描述

分析这条更新语句,发现它涉及了四个部分:

  1. 内存
  2. redo log(ib_log_fileX)
  3. 数据表空间(t.ibd)
  4. 系统表空间(ibdata1)

这条更新语句做了如下的操作(按照图中的数字顺序):

  1. Page 1在内存中,直接更新内存
  2. Page 2没有在内存中,就在内存的change buffer区域,记录下"我要往Page 2插入一 行"这个信息
  3. 将上述两个动作记入redo log中(图中3和4)

做完上面这些,事务就可以完成了

所以,执行这条更新语句的成本很低,就是写了两处内存,然后写了一处磁盘(两次操作合在一起写了一次磁盘),而且还是顺序写的

同时,图中的两个虚线箭头,是后台操作,不影响更新的响应时间

那在这之后的读请求,要怎么处理呢?比如,我们现在要执行:

select * from t where k in (k1, k2)

这里,画了这两个读请求的流程图:
在这里插入图片描述
如果读语句发生在更新语句后不久,内存中的数据都还在,那么此时的这两个读操作就与系统表空间(ibdata1)和redo log(ib_log_fileX)无关了

从图中可以看到:

  1. 读Page 1的时候,直接从内存返回
    WAL之后如果读数据,是不是一定要读盘,是不是一定要从redo log里面把数据更新以后才可以返回? 其实是不用的,可以看一下图3的这个状态,虽然磁盘上还是之前的数据,但是这里直接从内存返回结果,结果是正确的
  2. 要读Page 2的时候,需要把Page 2从磁盘读入内存中,然后应用change buffer里面的操作日志,生成一个正确的版本并返回结果。 可以看到,直到需要读Page 2的时候,这个数据页才会被读入内存

所以,如果要简单地对比这两个机制在提升更新性能上的收益的话,redo log主要节省的是随机写磁盘的IO消耗(转成顺序写),而change buffer主要节省的则是随机读磁盘的IO消耗

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

sysu_lluozh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值