场景:导出文件的时候,会出现一种情况,由于数据量太大而要去数据,组织数据等耗费比较长的时间,远超php或nginx设置的超时时间的时候怎么破?
解决办法:将文件操作防御后台脚本处理去执行,过几分钟再进行下载并且删除暂存的文件即可.
伪代码的实现:
$file = TEMP_DIR.'/'.$filename;
$cmd = 'php '.ROOT_PATH.'/cron/xxx.php';
if (!file_exists($file)) {
//判断是否已经在后台执行
$count = exec('/bin/ps xaww | grep -v grep | grep "'. $cmd . '" |wc -l');
if (intval($count) == 0) {
//先检查有无数据
...
if (xxx) {
//退出操作
}
//异步执行
exec("{$cmd} {arguments}> /dev/null &");
}
echo '请10分钟后再刷新此页面';
exit;
} else {
//输出文件
header('Content-Description: File Transfer');
header('Content-Type: application/octet-stream');
header('Content-Disposition: attachment; filename='.$filename);
header('Content-Transfer-Encoding: binary');
header('Expires: 0');
header('Cache-Control: must-revalidate');
header('Pragma: public');
header('Content-Length: ' . filesize($file));
ob_clean();
flush();
readfile($file);
unlink($file);
exit;
}
//ps:脚本中可以用$argv接收参数
还有一种相对效率更高的形式是:通过swoole任务去执行,也可以减少脚本数量,提高代码维护成本
如果你觉得有收获~可以关注我的公众号【咖啡色的羊驼】~第一时间收到我的分享和知识梳理~