MySQL删除大批量数据

MySQL删除大批量数据


1.删除大表的部分数据

一个表有1亿6000万的数据,有一个自增ID。最大值就是1亿6000万,需要删除大于250万以后的数据,有什么办法可以快速删除?

看到mysql文档有一种解决方案:http://dev.mysql.com/doc/refman/5.0/en/delete.html

         If you are deleting many rows from a large table, you may exceed the lock table size for an InnoDB table. To avoid this problem, or simply to minimize the time that the table remains locked, the following strategy (which does not use DELETE at all) might be helpful:

        Select the rows not to be deleted into an empty table that has the same structure as the original table:
        INSERT INTO t_copy SELECT * FROM t WHERE ... ;

        Use RENAME TABLE to atomically move the original table out of the way and rename the copy to the original name:
        RENAME TABLE t TO t_old, t_copy TO t;

        Drop the original table:
        DROP TABLE t_old;

删除大表的多行数据时,会超出innod block table size的限制,最小化的减少锁表的时间的方案是:
1、选择不需要删除的数据,并把它们存在一张相同结构的空表里
2、重命名原始表,并给新表命名为原始表的原始表名
3、删掉原始表

原文:http://www.2cto.com/database/201211/170796.html

2、删除带索引的表

       在My SQL数据库使用中,有的表存储数据量比较大,达到每天三百万条记录左右,此表中建立了三个索引,这些索引都是必须的,其他程序要使用。由于要求此表中的数据只保留当天的数据,所以每当在凌晨的某一时刻当其他程序处理完其中的数据后要删除该表中昨天以及以前的数据,使用delete删除表中的上百万条记录时,MySQL删除速度非常缓慢,每一万条记录需要大概4分钟左右,这样删除所有无用数据要达到八个小时以上,这是难以接受的。
      

       查询MySQL官方手册得知删除数据的速度和创建的索引数量是成正比的,于是删除掉其中的两个索引后测试,发现此时删除速度相当快,一百万条记录在一分钟多一些,可是这两个索引其他模块在每天一次的数据整理中还要使用,于是想到了一个折中的办法:

        在删除数据之前删除这两个索引,此时需要三分钟多一些,然后删除其中无用数据,此过程需要不到两分钟,删除完成后重新创建索引,因为此时数据库中的数据相对较少,约三四十万条记录(此表中的数据每小时会增加约十万条),创建索引也非常快,约十分钟左右。这样整个删除过程只需要约15分钟。对比之前的八个小时,大大节省了时间。

原文:http://blog.csdn.net/songyanjun2011/article/details/7308414


  • 3
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
要在MySQL中新增大批量数据,可以通过以下几种方法来实现。 第一种方法是使用INSERT INTO语句。可以将需要插入的数据按照一定的格式(例如CSV格式)保存在一个文本文件中,然后使用LOAD DATA INFILE语句将文本文件中的数据直接导入到MySQL数据库中。这个方法的好处是可以快速插入大量数据,但需要事先将数据保存在文本文件中。 第二种方法是使用INSERT INTO语句的批量插入形式。可以将多个INSERT INTO语句合并为一个INSERT INTO语句,并使用VALUES子句一次性插入多条数据。这种方法比较适用于数据较小的情况,不需要保存为文本文件。 第三种方法是使用INSERT INTO SELECT语句。可以先创建一个临时表,将需要插入的数据保存到临时表中,然后使用INSERT INTO SELECT语句将临时表中的数据插入到目标表中。这种方法比较适用于需要对插入的数据进行一定的处理或筛选的情况。 无论使用哪种方法,对于大批量数据的插入,还可以考虑以下几点优化: 1. 在插入之前,将目标表的索引和约束暂时禁用,以提高插入的速度; 2. 设置合适的事务大小,将多个插入操作批量提交,减少事务的开销; 3. 根据数据的特点,合理选择合适的插入顺序,以提高插入的效率; 4. 使用多线程或并行插入提高并发处理能力。 总之,根据具体的需求和场景,可以选择合适的方法和优化策略来实现MySQL大批量数据插入。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值