PHP对大文件的处理思路

转载 2015年11月19日 18:15:02

需求: 现有一个1G左右的日志文件,大约有500多万行, 用php返回最后几行的内容。

在php中,对于文件的读取时,最快捷的方式莫过于使用一些诸如file、file_get_contents之类的函数,简简单单的几行代码就能很漂亮的完成我们所需要的功能。但当所操作的文件是一个比较大的文件时,这些函数可能就显的力不从心, 下面将从一个需求入手来说明对于读取大文件时,常用的操作方法。

  1. 直接采用file函数来操作
    由于 file函数是一次性将所有内容读入内存,而php为了防止一些写的比较糟糕的程序占用太多的内存而导致系统内存不足,使服务器出现宕机,所以默认情况下限制只能最大使用内存16M,这是通过php.ini里的memory_limit = 16M来进行设置,这个值如果设置-1,则内存使用量不受限制。

下面是一段用file来取出这具文件最后一行的代码。代码执行大概2分钟左右。

$fp = fopen($file, "r");
$num = 10;
$chunk = 4096;
$fs = sprintf("%u", filesize($file));
$max = (intval($fs) == PHP_INT_MAX) ? PHP_INT_MAX : filesize($file);
for ($len = 0; $len < $max; $len += $chunk) {
  $seekSize = ($max - $len > $chunk) ? $chunk : $max - $len;
    fseek($fp, ($len + $seekSize) * -1, SEEK_END);
    $readData = fread($fp, $seekSize) . $readData;
    if (substr_count($readData, "\n") >= $num + 1) {
        preg_match("!(.*?\n){".($num)."}$!", $readData, $match);
        $data = $match[0];
        break;
    }
}
fclose($fp);
echo $data;

我机器是2个G的内存,当按下F5运行时,系统直接变灰,差不多20分钟后才恢复过来,可见将这么大的文件全部直接读入内存,后果是多少严重,所以不在万不得以,memory_limit这东西不能调得太高,否则只有打电话给机房,让reset机器了。

2.直接调用linux的tail命令来显示最后几行
在linux命令行下,可以直接使用tail -n 10 access.log很轻易的显示日志文件最后几行,可以直接用php来调用tail命令,执行php代码如下.整个代码执行完成耗时 0.0034 (s)

file = 'access.log';
$file = escapeshellarg($file); // 对命令行参数进行安全转义
$line = `tail -n 1 $file`;
echo $line;
  1. 直接使用php的fseek来进行文件操作
    这种方式是最为普遍的方式,它不需要将文件的内容全部读入内存,而是直接通过指针来操作,所以效率是相当高效的.在使用fseek来对文件进行操作时,也有多种不同的方法,效率可能也是略有差别的,下面是常用的两种方法.

方法一:

首先通过fseek找到文件的最后一位EOF,然后找最后一行的起始位置,取这一行的数据,再找次一行的起始位置,再取这一行的位置,依次类推,直到找到了$num行。

function tail($fp,$n,$base=5)
{
    assert($n>0);
    $pos = $n+1;
    $lines = array();
    while(count($lines)< =$n){
        try{
            fseek($fp,-$pos,SEEK_END);
        } catch (Exception $e){
            fseek(0);
            break;
        }
        $pos *= $base;
        while(!feof($fp)){
            array_unshift($lines,fgets($fp));
        }
    }
    return array_slice($lines,0,$n);
}
var_dump(tail(fopen("access.log","r+"),10));

方法二:

还是采用fseek的方式从文件最后开始读,但这时不是一位一位的读,而是一块一块的读,每读一块数据时,就将读取后的数据放在一个buf里,然后通过换行符(\n)的个数来判断是否已经读完最后$num行数据.

$fp = fopen($file, "r");
$line = 10;
$pos = -2;
$t = " ";
$data = "";
while ($line > 0) {
    while ($t != "\n") {
        fseek($fp, $pos, SEEK_END);
        $t = fgetc($fp);
        $pos --;
    }
    $t = " ";
    $data .= fgets($fp);
    $line --;
}
fclose ($fp);
echo $data
方法三:

ini_set('memory_limit','-1');
$file = 'access.log';
$data = file($file);
$line = $data[count($data)-1];
echo $line;

转载地址:http://www.nowamagic.net/librarys/veda/detail/1995

PHP对大文件的处理思路

需求: 现有一个1G左右的日志文件,大约有500多万行, 用php返回最后几行的内容。 在php中,对于文件的读取时,最快捷的方式莫过于使用一些诸如file、file_get_contents之类的...
  • kangjianrong
  • kangjianrong
  • 2013年10月07日 11:46
  • 283

PHP 读取 大文件 解决方法

用几个常用的编辑器打开一个1G的文件,文本编辑器因内存溢出直接挂掉,那么如何才能顺利读取这么大一个文件呢?且看下面分解用 file_get_contents 分段读取函数说明string file_g...
  • weixin_36333654
  • weixin_36333654
  • 2016年10月09日 18:12
  • 1206

PHP随机读取大文件中的若干行

我们在日常的工作中,经常会遇到用PHP操作大文件,比如需要分析系统日志等问题,有的日志文件可能很大,几个G以上,如果用file和file_get_contents函数的话,就会产生问题,由于这两个函数...
  • lifushan123
  • lifushan123
  • 2015年04月24日 22:03
  • 320

php大文件上传时,应该注意的问题

/* 大文件上传时,应该注意的问题*/1.时间限制 如果使用php程序进行文件上传,如果文件上传需要的时间过多,会停止运行程序. 但在php中,默认的该页最久执行时间为 30 秒.就是说超过30秒,该...
  • u012408083
  • u012408083
  • 2016年04月26日 12:25
  • 1229

PHP操作读取超大文件的FileReader类

PHP操作超大文件的封装类,SplFileObject配置文件操作函数,经多次测试,总结出效率最高的方式;实现在截取指定行slice()、获取前N行head()、获取末尾N行tail()和返回大文件的...
  • flyfreelyit
  • flyfreelyit
  • 2016年04月26日 17:21
  • 1743

java对大文件的处理思路

1:常用的我们都是读入到文件流,然后再流中操作。这样对于小文件是没问题的,对于大文件,因为要把文件对象转换成流,所以只要对大文件操作用到流肯定就溢出了,这里介绍2个方法,其实都差不多 2:一个是ni...
  • silence1214
  • silence1214
  • 2012年04月16日 12:15
  • 601

php 读取超大文件

PHP开发很多时候都要读取大文件,比如csv文件、text文件等。这些文件如果很大,比如10个G。这时,直接一次性把所有的内容读取到内存中计算不太现实。 遇到这种情况,往往觉得PHP太弱,实则不然...
  • guyan0319
  • guyan0319
  • 2017年12月08日 23:16
  • 133

PHP处理大文件下载

思路:PHP一边读取文件,一边将读取到的内容输出到浏览器中
  • kissxia
  • kissxia
  • 2015年10月21日 21:28
  • 2809

PHP读取大文件的多种方法介绍

在PHP中,对于文件的读取时,最快捷的方式莫过于使用一些诸如file、file_get_contents之类的函数,简简单单的几行代码就能 很漂亮的完成我们所需要的功能。但当所操作的文件是一个比较大的...
  • jinxingfeng_cn
  • jinxingfeng_cn
  • 2016年07月27日 10:11
  • 631

云盘处理大文件

查看了下问题的日志,这是一个13年9月4号的问题。再看下今天的日期,快3年过去了。但考察各大网盘的现状,我们会发现,它们的文件大小限制,似乎并没有多大的改善(比如百度和360网盘文件大小限制为10GB...
  • sp1r1t_v
  • sp1r1t_v
  • 2016年09月03日 12:21
  • 117
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:PHP对大文件的处理思路
举报原因:
原因补充:

(最多只允许输入30个字)