mysql 批量insert效率_MySQL批量insert效率对比

MySQL批量insert效率对比

事例如下:

[root@BDMYSQL-200-104 dumpdir]# more phone_area_new.sql

INSERT INTO `phone_area_new` VALUES ('1302357', '江苏省', '江苏-南通', '南通');

INSERT INTO `phone_area_new` VALUES ('1302358', '江苏省', '江苏-南通', '南通');

INSERT INTO `phone_area_new` VALUES ('1302359', '江苏省', '江苏-南通', '南通');

INSERT INTO `phone_area_new` VALUES ('1302360', '浙江省', '浙江杭州', '杭州');

INSERT INTO `phone_area_new` VALUES ('1302361', '浙江省', '浙江杭州', '杭州');

INSERT INTO `phone_area_new` VALUES ('1302362', '浙江省', '浙江杭州', '杭州');

INSERT INTO `phone_area_new` VALUES ('1302363', '浙江省', '浙江杭州', '杭州');

INSERT INTO `phone_area_new` VALUES ('1302364', '浙江省', '浙江杭州', '杭州');

INSERT INTO `phone_area_new` VALUES ('1302365', '浙江省', '浙江杭州', '杭州');

INSERT INTO `phone_area_new` VALUES ('1302366', '浙江省', '浙江杭州', '杭州');

INSERT INTO `phone_area_new` VALUES ('1301743', '贵州省', '贵州-贵阳', '贵阳');

INSERT INTO `phone_area_new` VALUES ('1301744', '贵州省', '贵州-安顺', '安顺');

INSERT INTO `phone_area_new` VALUES ('1301745', '贵州省', '贵州-贵阳', '贵阳');

INSERT INTO `phone_area_new` VALUES ('1301746', '贵州省', '贵州-贵阳', '贵阳');

INSERT INTO `phone_area_new` VALUES ('1301747', '贵州省', '贵州-贵阳', '贵阳');

INSERT INTO `phone_area_new` VALUES ('1301748', '贵州省', '贵州-贵阳', '贵阳');

INSERT INTO `phone_area_new` VALUES ('1301749', '贵州省', '贵州-遵义', '遵义');

INSERT INTO `phone_area_new` VALUES ('1301750', '河南省', '河南-焦作', '焦作');

--More--(0%)

行数大概有271255行:

[root@BDMYSQL-200-104 dumpdir]# wc -l phone_area_new.sql

271255 phone_area_new.sql

如果不合并insert大概需要3个小时左右才导入完,这样很悲剧,现在我们针对合并数量进行对比

1. 全并1000条数据

首先进行文本处理

[root@BDMYSQL-200-104 dumpdir]# sed ':a;N;s/;\r\?\n[^(]*/,/;0~1000!ba' phone_area_new.sql >mm.sql

清除表中数据

system@localhost 21:01: [netdata]> truncate table phone_area_new;

Query OK, 0 rows affected (0.20 sec)

测试导入数据

[root@BDMYSQL-200-104 dumpdir]# time mysql netdata

real 0m19.028s

user 0m0.155s

sys 0m0.008s

速度惊人,尽然只需要19S

2. 全并5000条数据

操作之前需要清理数据

system@localhost 21:01: [netdata]> truncate table phone_area_new;

Query OK, 0 rows affected (0.20 sec)

合并数据

[root@BDMYSQL-200-104 dumpdir]# sed ':a;N;s/;\r\?\n[^(]*/,/;0~5000!ba' phone_area_new.sql >mm.sql

测试导入数据

[root@BDMYSQL-200-104 dumpdir]# time mysql netdata

real 0m8.634s

user 0m0.151s

sys 0m0.008s

竟然只要8S,还能不能更快

2. 全并7000条数据

操作之前需要清理数据

system@localhost 22:16: [netdata]> truncate table phone_area_new;

Query OK, 0 rows affected (0.24 sec)

合并数据

[root@BDMYSQL-200-104 dumpdir]# sed ':a;N;s/;\r\?\n[^(]*/,/;0~7000!ba' phone_area_new.sql >mm.sql

注释这里做合并花了十几秒

导入数据

[root@BDMYSQL-200-104 dumpdir]# time mysql netdata

real 0m7.290s

user 0m0.146s

sys 0m0.011s

7S,还能不能更快

2. 全并8000条数据

操作之前需要清理数据

system@localhost 22:20: [netdata]> truncate table phone_area_new;

Query OK, 0 rows affected (0.20 sec)

合并数据

[root@BDMYSQL-200-104 dumpdir]# sed ':a;N;s/;\r\?\n[^(]*/,/;0~8000!ba' phone_area_new.sql >mm.sql

导入数据

[root@BDMYSQL-200-104 dumpdir]# time mysql netdata

real 0m7.477s

user 0m0.144s

sys 0m0.012s

总结:批量提交数跟硬件IO性能有很大关系,硬件IO越好批量提交数可以设置高点

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值