百万级大数据量一般方式导出存在哪些问题?
需要导出的数据一般都是从数据库中读取,然后执行导出操作。
一般方式导出(数据量少的方式导出)是先一次性从数据读取所需的数据,然后执行一次性导出操作。
百万级大数据量如果按这种方式导出,主要会遇到哪些问题呢?
- 执行时间长,很容易超时
- 服务器内存不够,百万级的数据从数据库一次性读取消耗的内存会导致服务器内存不够,从而导致导出失败
- 导出的excel文件比较大,且excel有行数限制
如何解决执行时间长,很容易超时问题
set_time_limit (0); //取消脚本运行时间的限制
如何解决服务器内存不足问题
百万级的数据从数据库一次性读取改为分页读取,采用fputcsv,使用output流, 渐进式的往output流中写入数据, 写到一定量后将系统缓冲冲刷到响应中(增量导出)
如何解决导出的excel文件比较大及excel导出行数限制问题
php导出数据到csv文件。csv相比于excel文件有其一定的优势,首先csv对数据的行数没有限制,但是excel对数据的行数有一定的限制,而且csv文件占用空间比excel文件小
百万级大数据量成功并高效导出完整代码实现
set_time_limit(0);//取消脚本运行时间的限制
ini_set('memory_limit', '1024M');//设置内存限制