引导关注商务学习动图
最近接到一个需求,通过选择的时间段导出对应的订单数据到excel中, 由于数据量较大,经常会有导出500K+数据的情况。平常的导出用的PHPexcle,将数据一次性读取到内存中再一次性写入文件,而在面对生成超大数据量的excel文件时这显然是会造成内存溢出的。
这时就需要循环批量写入excle导出。
过程中可能遇到的问题:
1.超时:Maximum execution time of 30 seconds exceeded
解决:在文件开头加上 set_time_limit(0);即php执行时间不受限制。
2.内存溢出:Allowed memory size of 134217728 bytes exhausted (tried to allocate 20480 bytes)
解决:
2.1 可在ini文件设置;设置memory_limit,将内存设置加大,
2.2 在执行代码前加上 ini_set("memory_limit", "1024M");
2.3 每次读取的数据量减少,增加循环的次数;
3.导出的excle数字过长展示成科学计数
解决:
3.1 在要写入的数字数据,后面加个 “\t”;
3.2 或是数字转换为字符串格式
上代码(生成excle链接导出数据):
public function downBigExcle()
{
set_time_limit(0);
#自定义导出地址+文件名
$pathName = time().'.csv';
#计算要导出总数据条数
$totalNums = Db::tab