mysql limit优化之延迟关联

最近在做一个数据同步功能,从一个200多万的数据表中进行数据清洗,然后根据逻辑再更新回去。

在刚开始做的时候,按照我的分析,应该一个线程去读,然后放到blockingqueue中,多个线程去处理程序就够了。毕竟读并不会很慢,还有索引,只是逻辑处理时候比较慢,因为还要去查别的数据再更新数据。

但是最后我发现,越到最后查询越慢,我多线程写已经变成单线程了(因为线程都在空闲,blockingqueue中无数据),然后我才发现原来是到最后读的满了。越到后面limit分页性能和代价越大(100多万时候查询1000条大概40多秒)。

然后我就尝试使用了延迟关联的处理。

sql如下:

(原sql)
SELECT * FROM `table` t  order by t.c1, t.c2 LIMIT 1360049,1000


(延迟关联)
SELECT * from table p inner join  (SELECT t.UID FROM `table` t  order by t.c1, t.c2 LIMIT 2020049,1000) x on p.UID=x.UID;

主要是延迟关联使用了索引覆盖,不需要再去全表查然后排序,性能大大提升了不少

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值