mysql:(七)索引

10 | MySQL为什么有时候会选错索引

前面我们介绍过索引,你已经知道了在 MySQL 中一张表其实是可以支持多个索引的。但

是,你写 SQL 语句的时候,并没有主动指定使用哪个索引。也就是说,使用哪个索引是由

MySQL 来确定的。

不知道你有没有碰到过这种情况,一条本来可以执行得很快的语句,却由于 MySQL 选错

了索引,而导致执行速度变得很慢?

我们一起来看一个例子吧。

我们先建一个简单的表,表里有 a、b 两个字段,并分别建上索引:

CREATE TABLE `t` (
  `id` INT (11) NOT NULL,
  `a` INT (11) DEFAULT NULL,
  `b` INT (11) DEFAULT NULL,
  PRIMARY KEY (`id`),
  KEY `a` (`a`),
  KEY `b` (`b`)
);

然后,我们往表 t 中插入 10 万行记录,取值按整数递增,即:(1,1,1),(2,2,2),(3,3,3)

直到 (100000,100000,100000)。

我是用存储过程来插入数据的,这里我贴出来方便你复现:

DELIMITER ;;
CREATE PROCEDURE idata ()
BEGIN
  DECLARE i INT ;
  SET i = 1 ;
  WHILE
    (i <= 100000) DO
    INSERT INTO t
    VALUES
      (i, i, i) ;
    SET i = i + 1 ;
  END WHILE ;
END ;;

 DELIMITER ;
 CALL idata();

接下来,我们分析一条 SQL 语句:

select * from t where a between 10000 and 20000;

a 上有索引,肯定是要使用索引 a 的。

 

这里,session A 的操作你已经很熟悉了,它就是开启了一个事务。随后,session B 把数

据都删除后,又调用了 idata 这个存储过程,插入了 10 万行数据。

这时候,session B 的查询语句 select * from t where a between 10000 and 20000 就

不会再选择索引 a 了。我们可以通过慢查询日志(slow log)来查看一下具体的执行情

况。

为了说明优化器选择的结果是否正确,我增加了一个对照,即:使用 force index(a) 来让

优化器强制使用索引 a(这部分内容,我还会在这篇文章的后半部分中提到)。

下面的三条 SQL 语句,就是这个实验过程。

可以看到,Q1 扫描了 10 万行,显然是走了全表扫描,执行时间是 40 毫秒。Q2 扫描了

10001 行,执行了 21 毫秒。也就是说,我们在没有使用 force index 的时候,MySQL

用错了索引,导致了更长的执行时间。

这个例子对应的是我们平常不断地删除历史数据和新增数据的场景。这时,MySQL 竟然

会选错索引,是不是有点奇怪呢?今天,我们就从这个奇怪的结果说起吧。

 

优化器的逻辑

在第一篇文章中,我们就提到过,选择索引是优化器的工作。

而优化器选择索引的目的,是找到一个最优的执行方案,并用最小的代价去执行语句。在

数据库里面,扫描行数是影响执行代价的因素之一。扫描的行数越少,意味着访问磁盘数

据的次数越少,消耗的 CPU 资源越少。

当然,扫描行数并不是唯一的判断标准,优化器还会结合是否使用临时表、是否排序等因

素进行综合判断。

我们这个简单的查询语句并没有涉及到临时表和排序,所以 MySQL 选错索引肯定是在判

断扫描行数的时候出问题了。

那么,问题就是:扫描行数是怎么判断的?

MySQL 在真正开始执行语句之前,并不能精确地知道满足这个条件的记录有多少条,而

只能根据统计信息来估算记录数。

这个统计信息就是索引的“区分度”。显然,一个索引上不同的值越多,这个索引的区分

度就越好。而一个索引上不同的值的个数,我们称之为“基数”(cardinality)。也就是

说,这个基数越大,索引的区分度越好。

我们可以使用 show index 方法,看到一个索引的基数。如图 4 所示,就是表 t 的 show

index 的结果 。虽然这个表的每一行的三个字段值都是一样的,但是在统计信息中,这三

个索引的基数值并不同,而且其实都不准确。

那么,MySQL 是怎样得到索引的基数的呢?这里,我给你简单介绍一下 MySQL 采样统

计的方法。

为什么要采样统计呢?因为把整张表取出来一行行统计,虽然可以得到精确的结果,但是

代价太高了,所以只能选择“采样统计”。

采样统计的时候,InnoDB 默认会选择 N 个数据页,统计这些页面上的不同值,得到一个

平均值,然后乘以这个索引的页面数,就得到了这个索引的基数。

而数据表是会持续更新的,索引统计信息也不会固定不变。所以,当变更的数据行数超过

1/M 的时候,会自动触发重新做一次索引统计。

在 MySQL 中,有两种存储索引统计的方式,可以通过设置参数 innodb_stats_persistent

的值来选择:

设置为 on 的时候,表示统计信息会持久化存储。这时,默认的 N 是 20,M 是 10。

设置为 off 的时候,表示统计信息只存储在内存中。这时,默认的 N 是 8,M 是 16。

由于是采样统计,所以不管 N 是 20 还是 8,这个基数都是很容易不准的。

但,这还不是全部。

你可以从图 4 中看到,这次的索引统计值(cardinality 列)虽然不够精确,但大体上还是

差不多的,选错索引一定还有别的原因。

其实索引统计只是一个输入,对于一个具体的语句来说,优化器还要判断,执行这个语句

本身要扫描多少行。

接下来,我们再一起看看优化器预估的,这两个语句的扫描行数是多少。

其中,Q1 的结果还是符合预期的,rows 的值是 104620;但是 Q2 的 rows 值是

37116,偏差就大了。而图 1 中我们用 explain 命令看到的 rows 是只有 10001 行,是这

个偏差误导了优化器的判断。

到这里,可能你的第一个疑问不是为什么不准,而是优化器为什么放着扫描 37000 行的执

行计划不用,却选择了扫描行数是 100000 的执行计划呢?

这是因为,如果使用索引 a,每次从索引 a 上拿到一个值,都要回到主键索引上查出整行

数据,这个代价优化器也要算进去的。

而如果选择扫描 10 万行,是直接在主键索引上扫描的,没有额外的代价。

优化器会估算这两个选择的代价,从结果看来,优化器认为直接扫描主键索引更快。当

然,从执行时间看来,这个选择并不是最优的。

使用普通索引需要把回表的代价算进去,在图 1 执行 explain 的时候,也考虑了这个策略

的代价 ,但图 1 的选择是对的。也就是说,这个策略并没有问题。

所以冤有头债有主,MySQL 选错索引,这件事儿还得归咎到没能准确地判断出扫描行

数。至于为什么会得到错误的扫描行数,这个原因就作为课后问题,留给你去分析了。

既然是统计信息不对,那就修正。analyze table t 命令,可以用来重新统计索引信息。我

们来看一下执行效果。

 

所以在实践中,如果你发现 explain 的结果预估的 rows 值跟实际情况差距比较大,可以

采用这个方法来处理。

其实,如果只是索引统计不准确,通过 analyze 命令可以解决很多问题,但是前面我们说

了,优化器可不止是看扫描行数。

  EXPLAIN SELECT * FROM t WHERE (a BETWEEN 1 AND 1000) AND (b BETWEEN 1 AND 100000)ORDER BY a LIMIT 1;

如果使用索引 a 进行查询,那么就是扫描索引 a 的前 1000 个值,然后取到对应的 id,再

到主键索引上去查出每一行,然后根据字段 b 来过滤。显然这样需要扫描 1000 行。

如果使用索引 b 进行查询,那么就是扫描索引 b 的最后 50001 个值,与上面的执行过程

相同,也是需要回到主键索引上取值再判断,所以需要扫描 50001 行。

所以你一定会想,如果使用索引 a 的话,执行速度明显会快很多。那么,下面我们就来看

看到底是不是这么一回事儿。

索引选择异常和处理

其实大多数时候优化器都能找到正确的索引,但偶尔你还是会碰到我们上面举例的这两种

情况:原本可以执行得很快的 SQL 语句,执行速度却比你预期的慢很多,你应该怎么办

呢?

不过很多程序员不喜欢使用 force index,一来这么写不优美,二来如果索引改了名字,

这个语句也得改,显得很麻烦。而且如果以后迁移到别的数据库的话,这个语法还可能会

不兼容。

但其实使用 force index 最主要的问题还是变更的及时性。因为选错索引的情况还是比较

少出现的,所以开发的时候通常不会先写上 force index。而是等到线上出现问题的时

候,你才会再去修改 SQL 语句、加上 force index。但是修改之后还要测试和发布,对于

生产系统来说,这个过程不够敏捷。

所以,数据库的问题最好还是在数据库内部来解决。那么,在数据库里面该怎样解决呢?

既然优化器放弃了使用索引 a,说明 a 还不够合适,所以第二种方法就是,我们可以考虑

修改语句,引导 MySQL 使用我们期望的索引。比如,在这个例子里,显然把“order by

b limit 1” 改成 “order by b,a limit 1” ,语义的逻辑是相同的。

 

之前优化器选择使用索引 b,是因为它认为使用索引 b 可以避免排序(b 本身是索引,已

经是有序的了,如果选择索引 b 的话,不需要再做排序,只需要遍历),所以即使扫描行

数多,也判定为代价更小。

现在 order by b,a 这种写法,要求按照 b,a 排序,就意味着使用这两个索引都需要排序。

因此,扫描行数成了影响决策的主要条件,于是此时优化器选了只需要扫描 1000 行的索

引 a。

当然,这种修改并不是通用的优化手段,只是刚好在这个语句里面有 limit 1,因此如果有

满足条件的记录, order by b limit 1 和 order by b,a limit 1 都会返回 b 是最小的那一

行,逻辑上一致,才可以这么做。

 

小结

今天我们一起聊了聊索引统计的更新机制,并提到了优化器存在选错索引的可能性。

对于由于索引统计信息不准确导致的问题,你可以用 analyze table 来解决。

而对于其他优化器误判的情况,你可以在应用端用 force index 来强行指定索引,也可以

通过修改语句来引导优化器,还可以通过增加或者删除索引来绕过这个问题。

你可能会说,今天这篇文章后面的几个例子,怎么都没有展开说明其原理。我要告诉你的

是,今天的话题,我们面对的是 MySQL 的 bug,每一个展开都必须深入到一行行代码去

量化,实在不是我们在这里应该做的事情

所以,我把我用过的解决方法跟你分享,希望你在碰到类似情况的时候,能够有一些思

路。

你平时在处理 MySQL 优化器 bug 的时候有什么别的方法,也发到评论区分享一下吧。

最后,我给你留下一个思考题。前面我们在构造第一个例子的过程中,通过 session A 的

配合,让 session B 删除数据后又重新插入了一遍数据,然后就发现 explain 结果中,

rows 字段从 10001 变成 37000 多。

而如果没有 session A 的配合,只是单独执行 delete from t 、call idata()、explain 这

三句话,会看到 rows 字段其实还是 10000 左右。你可以自己验证一下这个结果。

这是什么原因呢?也请你分析一下吧。

----------------------------------------------------------------------

在上一篇文章最后,我给你留的问题是,为什么经过这个操作序列,explain 的结果就不

对了?这里,我来为你分析一下原因。

delete 语句删掉了所有的数据,然后再通过 call idata() 插入了 10 万行数据,看上去是

覆盖了原来的 10 万行。

但是,session A 开启了事务并没有提交,所以之前插入的 10 万行数据是不能删除的。这

样,之前的数据每一行数据都有两个版本,旧版本是 delete 之前的数据,新版本是标记为

deleted 的数据。

这样,索引 a 上的数据其实就有两份。

然后你会说,不对啊,主键上的数据也不能删,那没有使用 force index 的语句,使用

explain 命令看到的扫描行数为什么还是 100000 左右?(潜台词,如果这个也翻倍,也

许优化器还会认为选字段 a 作为索引更合适)

是的,不过这个是主键,主键是直接按照表的行数来估计的。而表的行数,优化器直接用

的是 show table status 的值。

-----------------------------------------------------------------------------------------------------------------------

感谢文章 作者

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值