数据量很大时(5万条以上),用 PHPExcel 导出 xls 将十分缓慢且占用很大内存,最终造成运行超时或内存不足。
要彻底解决这个问题可以将数据分批导出成 CSV 格式的文件,这种格式简单导出快,并且也能用到 Excel 中。
可以通过设置 PHP 的运行时间和内存限制来阻止错误发生,但仍然不能确保导出完成。
- set_time_limit(0);
- ini_set("memory_limit","512M");
要彻底解决这个问题可以将数据分批导出成 CSV 格式的文件,这种格式简单导出快,并且也能用到 Excel 中。
- <?php
- // 不限制脚本执行时间以确保导出完成
- set_time_limit(0);
- // 输出Excel文件头,可把user.csv换成你要的文件名
- header('Content-Type: application/vnd.ms-excel');
- header('Content-Disposition: attachment;filename="amazon_product_quantity.csv"');
- header('Cache-Control: max-age=0');
- // 从数据库中获取数据,为了节省内存,不要把数据一次性读到内存,从句柄中一行一行读即可
- $sql = 'select * from amazon_product_quantity';
- $stmt = mysql_query($sql);
- // 打开PHP文件句柄,php://output 表示直接输出到浏览器
- $fp = fopen('php://output', 'a');
- // 输出Excel列名信息
- $head = array('code', 'sub_code', 'sp_code', 'quantity');
- foreach ($head as $i => $v) {
- // CSV的Excel支持GBK编码,一定要转换,否则乱码
- $head[$i] = iconv('utf-8', 'gb2312', $v);
- }
- // 将数据通过fputcsv写到文件句柄
- fputcsv($fp, $head);
- // 计数器
- $cnt = 0;
- // 每隔$limit行,刷新一下输出buffer,不要太大,也不要太小
- $limit = 100000;
- // 逐行取出数据,不浪费内存
- while ($row = mysql_fetch_array($stmt,MYSQL_ASSOC)) {
- $cnt ++;
- if ($limit == $cnt) { //刷新一下输出buffer,防止由于数据过多造成问题
- ob_flush();
- flush();
- $cnt = 0;
- }
- foreach ($row as $i => $v) {
- $row[$i] = iconv('utf-8', 'gb2312', $v);
- }
- fputcsv($fp, $row);
- }
- ?>