最近业务场景的需要,mysql单表要插入大量数据,考虑到单条记录长短对数据存储量有很大的影响,所以进行了一次插入检索测试。
插入代码Procedure
delimiter $$
DROP PROCEDURE IF EXISTS insert_current_data_uuid $$
CREATE PROCEDURE insert_current_data_uuid(IN item INTEGER)
BEGIN
DECLARE counter INT;
SET counter = item;
start transaction; -- 整个存储过程指定为一个事务
WHILE counter >= 1 DO
insert into current_data (id, label, `value`, totvalue, creat_time)
values(uuid(), 10, 10, 1000, 1551081344);
SET counter = counter - 1;
END WHILE;
commit; -- 必须主动提交
END
$$
call insert_current_data_uuid(10);
大量插入数据时,必须加上有注释的两句,这样速度会加快。
原因:如果不追加事物,每条数据的插入,都会进行磁盘的IO交互,受到磁盘IO的瓶颈限制,速度很慢。每分钟也就是8000天左右。
追加事物了,不受磁盘IO限制,暂存到了内存缓冲区,性能大大提高,每分钟200万条不是梦。
最后在单标中追加了2500条数据后,发现非索引检索,直接挂掉,最后果断放弃了单表大数据的想法,果断拆表存储。
最后结论:mysql这种级别的数据,要想业务正常能用,单表最多存储数据大几百万,超过这个数,果断采取其他方案,设计时根据业务算好数据量。