MYSQL百万级以上分页LIMIT速度太慢的优化方法

在MYSQL中LIMIT可以实现快速分页,但是当表中数据到了百万级别以上时就会变得非常慢,甚至造成服务器宕机。
//速度很快
SELECT * FROM table LIMIT 0,10;
//速度很慢
SELECT * FROM table LIMIT 500000,10;

LIMIT 500000,10的含义:扫描满足条件的500010行,扔掉前面的500000行,返回最后的10行,问题就在这里。
LIMIT 10 仅仅扫描10行。

日常分页SQL语句
SELECT id,uname,content FROM users ORDER BY id ASC LIMIT 500000,10;
扫描500010行。

如果记录了上次的最大ID
SELECT id,uname,content FROM users WHERE id>499990 ORDER BY id ASC LIMIT 10;
扫描10行。
 
备注:当一个数据库表过于庞大,LIMIT offset,length中的offset值过大,则SQL查询语句会非常缓慢。

解决方案一:自连表查询
SELECT * FROM A表 AS a JOIN ( SELECT id FROM A表 LIMIT offet,size) AS b ON b.id=a.id;

解决方案二:子查询(当偏移1000以上使用子查询法可以有效的提高性能)
1、如果limit语句的offset较大,你可以通过传递pk键值来减小offset = 0,这个主键最好是int类型并且auto_increment。
SELECT * FROM users WHERE id > 2345670 ORDER BY id LIMIT 0, 10;
等价于:
SELECT * FROM users WHERE id >=  (SELECT id FROM users ORDER BY id LIMIT 234567, 1) LIMIT 0, 10;
先找出第一条数据,然后大于等于这条数据的id就是要获取的数据
缺点:数据必须是连续的,可以说不能有WHERE条件,WHERE条件会筛选数据,导致数据失去连续性。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MySQL是一款常用的关系型数据库管理系统,当数据量达到百万时,使用常规的分页查询方法可能会导致查询效率低下,因此需要一些优化建议。 1. 使用索引:在分页查询中,使用合适的索引可以大大提高查询速度。对于分页查询,需要对页码(如LIMIT中的offset)以及排序字段进行索引,以减小查询范围。 2. 建立分区:对于大数据量的,可以根据某个字段对进行分区,将数据分散存储在多个磁盘上,提高查询效率。 3. 避免全扫描:尽量避免使用SELECT *,只选择需要的字段,减少数据传输量,优化查询性能。 4. 使用缓存:使用缓存技术,如Memcached或Redis等,在查询结果比较频繁且变化不大的情况下,可以将查询结果缓存起来,减少数据库的压力。 5. 分批查询:可以将大的查询结果分批获取,每次查询一部分数据,实现逐步加载,减少数据库的负载。 6. 合理使用内存:增大MySQL的缓冲池大小,尽量将数据存储在内存中,减少磁盘IO,提高查询性能。 7. 优化查询语句:合理编写查询语句,避免复杂的JOIN、子查询等操作,可以考虑优化查询语句的写法,减少不必要的计算和查询。 8. 使用查询缓存:对于一些经常被查询的数据,可以开启查询缓存功能,将查询结果缓存起来,提高查询性能。 总之,对于百万数据量的分页查询,需要综合考虑以上建议,并根据具体情况进行优化,合理地使用索引、缓存等技术,以提高查询效率和系统性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值