python导出大量数据到csv太慢问题解决
最近项目要求,写了一个定时导出到数据库的数据到csv的脚本(大概每天一千五百万条左右)。
我最开始使用了自带的csv,分批次每次导出一千条,刚开始导出很顺利也很快,每次只需要零点几秒,随着数据处理的越来越多导出的速度就越来越慢,到最后导出一千条需要十几分钟甚至半个小时。
然后我换成了pandas,问题并没有得到解决,也百度了很多发现python并没有很好的解决办法,最后转念一想既然python不行那我就用mysql自带的导出语句啊。(其实这个解决办法有的人可能会很快的想到,但我相信应该也有人跟我一样就想着用python解决)
所以话不多说,直接上语句
select * from data_list into outfile "C:/Users/Administrator/Desktop/test1.csv"
这样就能很快的把所有数据都导出来了。
注:路径里面不要有中文 这样导出来的数据是没有经过处理也不带表头的
需要的话可以看我另一篇文章mysql导出csv文件不带表头处理