MySQL大数据量的分页读取

无论什么数据库,大数据量的各种处理都是难题,今天我就介绍下MySQL大数据量的分页处理。数据量大的时候读取数据我们优化的第一个想到的就是索引,这个是没有错的,但是如果一个数据表内有大约500W以上的数据(不考虑系统架构问题)我们需要读取40W以后的20条数据这个时候如何处理?

数据表的结构:

id                 bigint(20)  自增长
type_id         int(11) 
category_id   int(11)
user_id         bigint(20)     
title              varchar(200)
content        text

 

索引:

user_id列

 

我的查询语句:

 

SELECT * FROM `table` WHERE `user_id` = 10000 LIMIT 400000 , 20

 

这样的一条查询的运行时间在20S以上,这样的数据读取速度是任何用户都无法接受的,这条语句查询速度慢的原因是查询语句的偏移量设置过大,导致数据库要扫描过滤掉许多不需要的数据,所以才会导致查询的速度很慢,这个问题可以通过数据的缓存去解决,但是今天仅仅讨论的是数据的读取问题。

 

解决方案:

一:对用户读取的页数做限制,一个正常的用户是不需要读取到几十万页之后的数据,所以可以对用户的读取也数做限制,这个是不会影响到用户体验的,但是这部分数据就无法读取了

 

二:对数据进行倒序排列,由于我的id字段是自增长的我可以对他进行倒序排列,然后读取前几条数据,当然这种数据的读取是需要算法支持的,倒序的排列读取涉及到的是偏移量的设置,这种读取的速度用户是可以接受的返回熟读在2S以内!

 

结束语:

小生不才,多多献丑,如有不足之处还承蒙大家多多指教!

 

转载于:https://www.cnblogs.com/gaocheng/archive/2010/08/02/1790651.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值