一次900万+数据量的 SQL 查询优化分析

祝大家新年快乐,在新的一年里,工作顺利,身体健康,万事如意!

另外,最近大家没有特别重要的事情不要出门了,尽量在家呆着,减少与他人接触,出门一定记得带有防护作用的口罩,注意安全!保护好自己!保护好你的家人!

加油武汉!加油中国!

往期热门文章:

1、往期精选优秀博文都在这里了!》

2、7 款神秘的开源中间件!

3、MyBatis她不香吗?为啥老外却喜欢Hibernate/Jpa?

4、代码对比工具,我就用这7个!

5、Mybatis 中经典的 9 种设计模式!面试可以吹牛了!

来源 :

https://www.jianshu.com/p/0768ebc4e28d

有一张流水表,未分库分表,目前的数据量为950w,分页查询使用到了limit,优化之前的查询耗时167s左右 (execution: 16s831ms, fetching: 107 ms)

按照下文的方式调整SQL后,耗时347ms (execution: 163 ms, fetching: 184 ms);优化前的SQL类似这样:

-- 优化前SQL
SELECT  各种字段
FROM `table_name`
WHERE 各种条件
LIMIT 0,10;

优化后SQL是这样的(这种优化手段在高性能MySQL中有提及):

-- 优化后SQL
SELECT  各种字段
FROM `table_name` main_tale
RIGHT JOIN 
(
SELECT  子查询只查主键
FROM `table_name`
WHERE 各种条件
LIMIT 0,10;
) temp_table ON temp_table.主键 = main_table.主键

一,前言

首先说明一下MySQL的版本:

mysql> select version();
+-----------+
| version() |
+-----------+
| 5.7.17    |
+-----------+
1 row in set (0.00 sec)

再看一下表结构:

mysql> desc test;
+--------+---------------------+------+-----+---------+----------------+
| Field | Type | Null | Key | Default | Extra |
+--------+---------------------+------+-----+---------+----------------+
| id | bigint(20) unsigned | NO | PRI | NULL | auto_increment |
| val | int(10) unsigned | NO | MUL | 0 |                |
| source | int(10) unsigned | NO | | 0       | |
+--------+---------------------+------+-----+---------+----------------+
3 rows in set (0.00 sec)

id为自增主键,val为非唯一索引。

灌入大量数据,共500万:

mysql> select count(*) from test;
+----------+
| count(*) |
+----------+
| 5242882 |
+----------+
1 row in set (4.25 sec)

我们知道,当limit offset rows中的offset很大时,会出现效率问题:

mysql> select * from test where val=4 limit 300000,5;
+---------+-----+--------+
| id | val | source |
+---------+-----+--------+
| 3327622 |   4 | 4 |
| 3327632 |   4 | 4 |
| 3327642 |   4 | 4 |
| 3327652 |   4 | 4 |
| 3327662 |   4 | 4 |
+---------+-----+--------+
5 rows in set (15.98 sec)

为了达到相同的目的,我们一般会改写成如下语句:

mysql> select * from test a inner join (select id from test where val=4 limit 300000,5) b on a.id=b.id;
+---------+-----+--------+---------+
| id | val | source | id |
+---------+-----+--------+---------+
| 3327622 | 4 |      4 | 3327622 |
| 3327632 |   4 | 4 | 3327632 |
| 3327642 | 4 |      4 | 3327642 |
| 3327652 |   4 | 4 | 3327652 |
| 3327662 | 4 |      4 | 3327662 |
+---------+-----+--------+---------+
5 rows in set (0.38 sec)

时间相差很明显。

为什么会出现上面的结果?我们看一下select * from test where val=4 limit 300000,5;的查询过程:

查询到索引叶子节点数据。根据叶子节点上的主键值去聚簇索引上查询需要的全部字段值。

类似于下面这张图:

像上面这样,需要查询300005次索引节点,查询300005次聚簇索引的数据,最后再将结果过滤掉前300000条,取出最后5条。MySQL耗费了大量随机I/O在查询聚簇索引的数据上,而有300000次随机I/O查询到的数据是不会出现在结果集当中的。

肯定会有人问:既然一开始是利用索引的,为什么不先沿着索引叶子节点查询到最后需要的5个节点,然后再去聚簇索引中查询实际数据。这样只需要5次随机I/O,类似于下面图片的过程:

其实我也想问这个问题。

证实

下面我们实际操作一下来证实上述的推论:

为了证实 select*fromtestwhereval=4limit300000,5是扫描300005个索引节点和300005个聚簇索引上的数据节点,我们需要知道MySQL有没有办法统计在一个sql中通过索引节点查询数据节点的次数。我先试了Handlerread*系列,很遗憾没有一个变量能满足条件。

我只能通过间接的方式来证实:

InnoDB中有buffer pool。里面存有最近访问过的数据页,包括数据页和索引页。所以我们需要运行两个sql,来比较buffer pool中的数据页的数量。

预测结果是运行 select*fromtest a inner join(selectidfromtestwhereval=4limit300000,5); 之后,buffer pool中的数据页的数量远远少于 select*fromtestwhereval=4limit300000,5;对应的数量,因为前一个sql只访问5次数据页,而后一个sql访问300005次数据页。

select*fromtestwhereval=4limit300000,5

mysql> select index_name,count(*) from information_schema.INNODB_BUFFER_PAGE where INDEX_NAME in('val','primary') and TABLE_NAME like '%test%' group by index_name;Empty set (0.04 sec)

可以看出,目前buffer pool中没有关于test表的数据页。

mysql> select * from test where val=4 limit 300000,5;
+---------+-----+--------+
| id | val | source |
+---------+-----+--------+|
3327622 |   4 | 4 |
| 3327632 |   4 | 4 |
| 3327642 |   4 | 4 |
| 3327652 |   4 | 4 |
| 3327662 |   4 | 4 |
+---------+-----+--------+
5 rows in set (26.19 sec)

mysql> select index_name,count(*) from information_schema.INNODB_BUFFER_PAGE where INDEX_NAME in('val','primary') and TABLE_NAME like '%test%' group by index_name;
+------------+----------+
| index_name | count(*) |
+------------+----------+
| PRIMARY | 4098 |
| val |      208 |
+------------+----------+2 rows in set (0.04 sec)

可以看出,此时buffer pool中关于test表有4098个数据页,208个索引页。

select*fromtest a inner join(selectidfromtestwhereval=4limit300000,5);为了防止上次试验的影响,我们需要清空buffer pool,可以通过重启mysql来实现。然后再次运行优化后的SQL:

mysqladmin shutdown
/usr/local/bin/mysqld_safe &
mysql> select index_name,count(*) from information_schema.INNODB_BUFFER_PAGE where INDEX_NAME in('val','primary') and TABLE_NAME like '%test%' group by index_name;

Empty set (0.03 sec)

运行sql:

mysql> select * from test a inner join (select id from test where val=4 limit 300000,5) b on a.id=b.id;
+---------+-----+--------+---------+
| id | val | source | id |
+---------+-----+--------+---------+
| 3327622 | 4 |      4 | 3327622 |
| 3327632 |   4 | 4 | 3327632 |
| 3327642 | 4 |      4 | 3327642 |
| 3327652 |   4 | 4 | 3327652 |
| 3327662 | 4 |      4 | 3327662 |
+---------+-----+--------+---------+
5 rows in set (0.09 sec)

mysql> select index_name,count(*) from information_schema.INNODB_BUFFER_PAGE where INDEX_NAME in('val','primary') and TABLE_NAME like '%test%' group by index_name;
+------------+----------+
| index_name | count(*) |
+------------+----------+
| PRIMARY | 5 |
| val |      390 |
+------------+----------+
2 rows in set (0.03 sec)

我们可以看明显的看出两者的差别:第一个sql加载了4098个数据页到buffer pool,而第二个sql只加载了5个数据页到buffer pool。符合我们的预测。

也证实了为什么第一个sql会慢:读取大量的无用数据行(300000),最后却抛弃掉。

而且这会造成一个问题:加载了很多热点不是很高的数据页到buffer pool,会造成buffer pool的污染,占用buffer pool的空间。遇到的问题

为了在每次重启时确保清空buffer pool,我们需要关闭innodbbufferpooldumpatshutdown和innodbbufferpoolloadatstartup,这两个选项能够控制数据库关闭时dump出buffer pool中的数据和在数据库开启时载入在磁盘上备份buffer pool的数据。

END

参考资料:

  • https://explainextended.com/2009/10/23/mysql-order-by-limit-performance-late-row-lookups/

  • https://dev.mysql.com/doc/refman/5.7/en/innodb-information-schema-buffer-pool-tables.html

往期热门文章:

1、《历史文章分类导读列表!精选优秀博文都在这里了!》
2、不就是Select Count语句吗,竟然能被面试官虐的体无完肤!
3、除了 P 站,程序员在摸鱼时还喜欢上这些网站...
4、39 个奇葩代码注释,看完笑哭了。。。
5、Java到底是值传递还是引用传递?
6、Mybatis的这些坑!把我坑惨了!
7、Dubbo必会的18个面试题!一网打尽!

8、可以提高千倍效率的Java代码小技巧
9、ThreadLocal面试六连问,你能Hold住吗?
10、后端开发甩锅指南!

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值