思路一:
今天需要把将近存有一千万条记录的*.sql导入到mysql中。使用navicate导入,在导入100万条之后速度就明显变慢了,
导入五百万条数据的时候用了14个小时,且后面的数据导入的越来越慢。
后来是使用的办法是:
编辑*.sql文件,把表结构里面的主键、索引等等全部删除掉,引擎改为myisam。
这样导入速度大为提高,只要了半个小时就把将近一千万数据导完了。
(关于删除索引,我把多字段的索引删除了,添加了一个后面需要的单字段索引,速度也没降低多少)
当然在数据导入完之后,你可以把这些主键、索引、引擎都重新改回去。
思路二:
对于一些数据量较大的系统,数据库面临的问题除了查询效率低下,还有就是数据入库时间长。特别像报表系统,每天花费在数据导入上的时间可能会长达几个小时或十几个小时之久。因此,优化数据库插入性能是很有意义的。
经过对MySQL InnoDB的一些性能测试,发现一些可以提高insert效率的方法,供大家参考参考。
1、一条SQL语句插入多条数据
常用的插入语句如:
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `