用node读取3个很大的日志文件,每个大约200M,然后逐行处理,测试了两种方法。
第一种
fs.readFileSync(“aa.log").toString().split('\n');
就是先全部读取处理来,然后切分成数组,之后单独处理数组的每一条数据,处理3个文件,花了20秒,在测试的过程中出现了
FATAL ERROR: CALL_AND_RETRY_LAST Allocation failed - JavaScript heap out of memory
这个错误,不过我修改程序调好了。
第二种
const rd = readline.createInterface({
input: fs.createReadStream(file),
output: process.stdout,
terminal: false
});
rd.on('line', function(item) {
//处理
}).on("close",()=>{
//处理
});
就是独行读取出来,都行处理
处理3个文件,花了不到16秒。
看来这种问题还是readline比较快,并且readline不会有JavaScript heap out of memory的错误