Mysql为什么有时候会选错索引?

本文详细探讨了MySQL优化器在选择索引时可能出现的错误,通过实例展示了当表数据变动时,索引统计信息不准确导致的执行计划偏差。通过分析SQL查询、使用EXPLAIN和ANALYZE TABLE命令,揭示了优化器基于扫描行数预估做出错误决策的原因。提出了使用FORCE INDEX、调整SQL语句结构以及创建更适合的索引等解决方法,并强调了保持索引统计信息准确的重要性。
摘要由CSDN通过智能技术生成

在Mysql中一张表其实是可以支持多个索引的。但是,在写sql的时候,并没有主动指定使用哪个索引,也就是说,使用哪个索引是由mysql来确定的。
有时候会出现这种情况,一条本来可以执行得很快的sql语句,但是因为mysql选错了索引,而导致执行速度变得很慢。
有如下一张表,并且对a、b字段建立索引:

CREATE TABLE `t` (
  `id` int(11) NOT NULL,
  `a` int(11) DEFAULT NULL,
  `b` int(11) DEFAULT NULL,
  PRIMARY KEY (`id`),
  KEY `a` (`a`),
  KEY `b` (`b`)
) ENGINE=InnoDB

然后我们往表中插入10万行记录,取值按整数递增,即(1,1,1),(2,2,2)直到(100000,100000,100000)。
可以使用存储过程来插入数据,代码如下:

delimiter ;;
create procedure idata()
begin
  declare i int;
  set i=1;
  while(i<=100000)do
    insert into t values(i, i, i);
    set i=i+1;
  end while;
end;;
delimiter ;
call idata();

分析下面这条sql查询语句:

select * from t where a between 10000 and 20000;

这个语句很明显的可以看出,a上有索引,肯定要使用索引a的。下图就是用explain命令看到的这条语句的执行情况。
在这里插入图片描述
从图中可以看出,这条查询语句的执行也确实符合预期,key这个字段值是’a’,表示优化器选择了索引a。
然后我们进行了如下操作:

sessionAsessionB
start transaction with consistentsnapshot;
delete from t;   call idata();
explain select * from t where a between 10000 and 20000;
conmmit;
sessionA和sessionB的执行流程
图中,sessionA就是开启了一个事务,然后sessionB将这些数据都删了,然后又调用了存储过程,插入了10万行数据。这个时候,sessionB的查询语句 select * from t where a between 10000 and 20000 就不会在选择索引a了,可以通过慢查询日志(slow log)来查看一下具体的执行情况。 在此,增加了一个对照,即:使用force index(a)来让优化器 强制使用索引a。实验过程如下:
set long_query_time=0;
select * from t where a between 10000 and 20000; /*Q1*/
select * from t force index(a) where a between 10000 and 20000;/*Q2*/

第一句:将慢查询日志的阈值设置为0,表示这个线程接下来的语句都会被记录入慢查询日志中;
第二句:Q1是sessionB原来的查询
第三句:Q2是加了force index(a)来和sessionB原来的查询语句执行情况对比。
这三条sql语句执行完成后的慢查询日志如下:
在这里插入图片描述

slow log 结果

可以看到,Q1扫描了10万行,走了全表扫面,执行时间是40毫秒。Q2扫描了10001行,执行了21毫秒,也就是说,我们在没有使用force index的时候,mysql用错了索引,导致了更长的执行时间。
这个例子对应的是我们平常不断地删除历史数据和新增数据的场景,这时,mysql竟然会选错索引。那么原因是什么呢?

优化器的逻辑

选择索引是优化器的工作。
而优化器选择索引的目的,是找到一个最优的执行方案,并用最小的代价去执行语句,在数据库里面,扫描行数是影响执行代价的因素之一。扫描的行数越少,意味着访问磁盘数据的次数越少,消耗的CPU资源越少。
扫面行数并不是唯一的判断标准,优化器还会结合是否使用临时表,是否排序等因素进行综合判断。
这个简单的查询并没有涉及到临时表和排序,所以mysql选错索引肯定是在判断扫描行数的时候出问题了。

扫描行数是怎么判断的?

Mysql在真正开始执行语句之前,并不能精确地知道满足这个条件地记录有多少条,而只能根据统计信息来估算记录数。
这个统计信息就是索引的”区分度“。一个索引上不用的值越多,这个索引的区分度就越好,而一个索引上不同的值的个数,我们称之为”基数“(cardinality)。也就是说,这个基数越大,索引的区分度越好。
可以使用show index方法,看到一个索引的基数。如下图所示,就是表t的show index的结果。虽然这个表的每一行的三个字段值都是一样的,但是在统计信息中,这三个索引的基数值并不同,而且其实都不准确。
在这里插入图片描述

表 t 的show index结果

Mysql是怎样得到索引的基数的呢?这里就涉及到Mysql的采样统计方法。

因为将整张表取出来一行行统计,虽然可以得到精确的结果,但是代价太高了,所以只能选择”采样统计“。
采样统计的时候,InnoDB默认会选择N个数据页,统计这些页面上的不同值,得到一个平均值,然后乘以这个索引的页面数,就得到了这个索引的基数。
而数据表是会持续更新的,索引统计信息也不会固定不变。所以,当变更的数据行数超过1/M的时候,会自动触发重新做一次索引统计。
MySQL有两种存储索引统计的方式,可以通过设置参数innodb_stats_persistent的值来选择:
1、设置为on的时候,表示统计信息会持久化存储。这时,默认的N是20,M是10
2、设置为off的时候,表示统计信息只存储在内存中,这时,默认的N是8,M是16
由于是采样统计,所以不管是20还是8,这个基数都是很容易不准的。
在上图中可以看出,索引统计值(cardinality列)虽然不够精确,但大体上还是差不多的,选错索引一定还有别的原因。
其实索引统计只是一个输入,对于一个具体的语句来说,优化器还要判断,执行这个语句本身要扫描多少行,然后看一下优化器预估的这两个语句的扫描行数是多少?

在这里插入图片描述

意外的 explain 结果

rows这个字段表示的是预计扫描行数。
其中,Q1的结果还是符合预期的,rows的值是104620;但是Q2的rows值是37116,偏差就大了。而图1中我们用explain命令看到的rows是只有10001行,是这个偏差误导了优化器的判断。
到这里,可能你的第一个疑问不是为什么不准,而是优化器为什么放着扫描37000行的执行计划不用,却选择了扫描行数是100000的执行计划呢?
这是因为,如果使用索引a,每次从索引a上拿到一个值,都要回到主键索引上查出整行数据,这个代价优化器也要算进去的。
而如果选择扫描10万行,是直接在主键索引上扫描的,没有额外的代价。优化器会估算这两个选择的代价,从结果看来,优化器认为直接扫描主键索引更快,从执行时间来看,这个选择并不是最优的。
使用普通索引需要把回表的代价算进去,在实行explain的时候,也考虑了这个策略的代价,在explain执行图中可以看到选择是对的,也就是说,这个策略并没有问题。
Mysql选错索引,这个问题还得归咎到没能准确地判断出扫描行数。
既然统计信息不对,那么就修正。analyze table t命令,可以用来重新统计索引信息。执行效果如下

在这里插入图片描述

执行analyze table t命令回复的explain结果

从图中可以看出,执行结果是对的。
所以在实践中,我们可以发现explain的结果预估的rows值跟实际情况差距比较大,可以采用这个方法来处理。
其实,如果只是索引统计不准确,通过analyze命令可以解决很多问题,但是我们前面也说了,优化器不止是看扫描行数。
基于表t,来看另外一个语句的执行结果:

select * from t where (a between 1 and 10000) and (b between 50000 and 100000) order by b limit 1;

从条件上看,这个查询没有符合条件的记录,因此会返回空集合。
在开始执行这条语句之前,可以先设想一下,如果你来选择索引,会选择哪一个呢?为了便于分析,我们先来看a、b这两个索引的结构图。
在这里插入图片描述

a、b索引的结构图

如果使用索引a进行查询,那么就是扫描索引a的前1000个值,然后取到对应的id,再到主键索引上去查出每一行,然后根据字段b来过滤,这样需要扫描1000行。
如果使用索引b进行查询,那么就是扫描索引b的最后50001行,与上面的执行过程相同,也是需要回到主键索引上取值在判断,所以需要扫描50001行。
这样看来使用索引a的执行速度明显会快很多,下面我们就看看到底是不是这样的“
执行explain:

explain select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b limit 1;

执行结果如下:
使用explain方法查看执行计划

使用explain方法查看执行计划

可以看出,返回结果中key字段显示,这次优化器选择了索引b,而rows字段显示需要扫描行数是50198。
由此我们可以知道:
1、扫描行数的估计值依然不准确
2、这个例子里面的mysql选错了索引

索引选择异常和处理

其实大多数时候优化器都能找到正确的索引,偶尔也会碰到我们上面举例的两种情况,原本可以执行的很快的sql语句,执行速度却比预期的要慢很多,这时应该怎么办呢?
方法一:
像我们第一个例子一样,采用force index强行选择一个索引。MySQL会根据词法解析的结果分析出可能可以使用的索引作为候选项,然后在候选列表中依次判断每个索引需要扫描多少行,如果force index指定的索引在候选索引列表中,就直接选择这个索引,不再评估其他索引的执行代价。
在第二个例子里面,刚开始分析时,我们认为选择索引a会更好,现在,我们就来看看执行效果:
在这里插入图片描述

使用不同索引的语句执行耗时

可以看到,原本语句需要执行2.23秒,当使用force index(a) 的时候,只用了0.05秒,比优化器的选择快了40多倍。
也就是说,优化器没有选择正确的索引,force index起到了“矫正”的作用。
不过很多程序员都不喜欢使用force index,一是这么写不优美,二十如果索引改了名字,这个语句也得改,就会很麻烦,而且容易出错,如果以后迁移到别的数据库的话,这个语法还可能会不兼容。
但其实使用force index最主要的问题还是变更的及时性。因为选错索引的情况还是比较少出现的,所以开发的时候通常不会先写上force index。而是等到线上出现问题的时候,才会再去修改sql语句,加上force index。但是修改之后还要测试和发布,对于生产系统来说,这个过程不够敏捷/
所以,数据库的问题最好还是在数据库内部来解决。那么如何在数据库里面来解决呢?
既然优化器放弃了使用索引a,说明a还不够合适,所以我们可以使用方法二。
方法二:
我们可以考虑修改语句,引导mysql使用我们期望的索引,比如,在这个例子里,显然把“order by b limit 1”改成“order by b,a limit 1”,语义的逻辑是相同的。
修改之后的效果:
在这里插入图片描述

order by b,a limit 1 执行结果

之前优化器选择使用索引b,是因为它认为使用索引b可以避免排序(b本身是索引,已经是有序的了,如果选择索引b的话,不需要再做排序,只需要遍历),所以即使扫描行数多,也判定为代价更小。
现在order by b,a这种写法,要求按照b,a排序,就意味着使用这两个索引都需要排序,因此,扫描行数成了影响决策的主要条件,于是此时优化器选了只需要扫描行数1000行的索引a。
当然,这种修改并不是通用的优化手段,只是刚好在这个语句里面有limit1,因此如果有满足条件的记录,order by b limit 1 和order by b,a limit 1 都会返回b是最小的那一行,逻辑上一致,才可以这么做。
如果觉得修改语句不好,还有一种做法:下面是执行效果:

select * from (select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b limit 100)alias limit 1;

在这里插入图片描述

改写sql的explain

在这个例子里,我们用limit100让优化器意识到,使用b索引代价是很高的, 其实是我们根据数据特征诱导了一下优化器,也不具备通用性。
方法三:
在有些场景下,我们可以新建一个更合适的索引,来提供给优化器做选择,或删掉误用的索引。
在这个例子中,我们没有找到通过新增索引来改变优化器行为的方法。这种情况其实比较少,尤其是经过DBA索引来优化过的库,再碰到这个bug,找到一个更合适的索引一般比较难。
还有一个方法是删掉索引b,可能会觉得好笑,但是实际上碰到过两次这样的例子,最终是DBA跟业务开发沟通后,发现这个优化器错误选择的索引其实根本没有必要存在,于是就删掉了这个索引,优化器也就重新选择到了正确的索引。

问题:
前面我们在构造第一个例子的过程中,通过session A的配合,让session B删除数据后又重新插入了一遍数据,然后就发现explain结果中,rows字段从10001变成37000多。
而如果没有session A的配合,只是单独执行delete from t、call idata()、explain这三句话,会看到rows字段其实还是10000左右。可以自己验证一下结果,并分析一下这是什么原因。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值