limit存在问题:用limit查询几百万的数据会读取很慢。
解决办法:
1、子查询优化法:先找出第一条数据,然后大于等于这条数据的id就是要获取的数据。
缺点:数据必须是连续的,可以说不能有where条件,where条件会筛选数据,
导致数据失去连续性。
导致数据失去连续性。
2、倒排表优化法:倒排表法类似建立索引,用一张表来维护页数,然后通过高效的连接得到数据。
缺点:只适合数据固定的情况,数据不能删除。
3、反向查找优化法: 当偏移超过一半记录数的时候,先用排序,这样偏移就反转了。
缺点:ORDER by优化比较麻烦,要增加索引,索引影响数据的修改效率,
并且要知道总记录数,偏移大于数据的一半。
并且要知道总记录数,偏移大于数据的一半。