MYSQL大数据量分页查询优化 - 十万、百万级优化

1. 常见问题

在mysql大数据量的基础下,分页中随着页码的增加,查询时间也会响应的增加。所以到了百万级别的数据量时,我们就需要优化已有的查询代码进行合理有效的分页。

一般情况下,页码与查询时间成正比

SELECT count(*) FROM `sys_user`
结果: 4344284
> 时间: 1.132s
SELECT * FROM `sys_user` LIMIT 10000,20
> 时间: 0.095s
SELECT * FROM `sys_user` LIMIT 100000,20
> 时间: 0.181s
SELECT * FROM `sys_user` LIMIT 1000000,20
> 时间: 1.302s
SELECT * FROM `sys_user` LIMIT 4000000,20
> 时间: 5.498s

2. 出现的原因

我们先要了解到 limit 4000000,20的意思扫描满足条件的4000020行,扔掉前面的4000000行,返回最后的20行,问题就在这里,其实我们每次都只是需要20行的数据内容,那么到后面每次查询需要扫描超过400W+行,性能肯定大打折扣。

3. 解决方式

对超过特定阈值的页数进行 SQL改写:

SELECT
	a.* 
FROM
	`sys_user` a,
	( SELECT id FROM `sys_user` LIMIT 4000000, 20 ) b 
WHERE
	b.id = a.id
> 时间: 0.699s

将语句抽离成一个可以复用的sql

SELECT a.* FROM1 a, (select id from1 where 条件 LIMIT 100000,20 ) b where a.id=b.id

4. 原理

利用覆盖索引来进行查询操作,避免回表

说明:如果一本书需要知道第 11 章是什么标题,会翻开第 11 章对应的那一页吗?目录浏览一下就好,这个目录就是起到覆盖索引的作用。我们语句中的覆盖索引就使用的就是

SELECT id FROM `sys_user` LIMIT 4000000, 20

这条sql直接拿到我们要查询的20条数据的id,再去表中查询它的具体数据

  • 3
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MySQL是一款常用的关系型数据库管理系统,当数据量达到百万时,使用常规的分页查询方法可能会导致查询效率低下,因此需要一些优化建议。 1. 使用索引:在分页查询中,使用合适的索引可以大大提高查询速度。对于分页查询,需要对页码(如LIMIT中的offset)以及排序字段进行索引,以减小查询范围。 2. 建立分区:对于大数据的表,可以根据某个字段对表进行分区,将数据分散存储在多个磁盘上,提高查询效率。 3. 避免全表扫描:尽避免使用SELECT *,只选择需要的字段,减少数据传输优化查询性能。 4. 使用缓存:使用缓存技术,如Memcached或Redis等,在查询结果比较频繁且变化不大的情况下,可以将查询结果缓存起来,减少数据库的压力。 5. 分批查询:可以将大的查询结果分批获取,每次查询一部分数据,实现逐步加载,减少数据库的负载。 6. 合理使用内存:增大MySQL的缓冲池大小,尽数据存储在内存中,减少磁盘IO,提高查询性能。 7. 优化查询语句:合理编写查询语句,避免复杂的JOIN、子查询等操作,可以考虑优化查询语句的写法,减少不必要的计算和查询。 8. 使用查询缓存:对于一些经常被查询数据,可以开启查询缓存功能,将查询结果缓存起来,提高查询性能。 总之,对于百万数据量分页查询,需要综合考虑以上建议,并根据具体情况进行优化,合理地使用索引、缓存等技术,以提高查询效率和系统性能

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值