1. 100万条记录的文本文件,取出重复数最多的前10条。
示例文本:
098
123
234
789
……
234
678
654
123
求思路
回复讨论(解决方案)
导入到表中,然后用sql统计,不知道可行不。你可以试试。
导入到表中,然后用sql统计,不知道可行不。你可以试试。
这样肯定可行,但应该不是出题者想要的解决方法。想要采用PHP处理或算法
explode //读取分割成数组
array_count_values//统计重复次数
arsort//排序,得到结果
可以对文本分块处理,记录结果,估计一次性读取的话,内存也吃不住...
可以对文本分块处理,记录结果,估计一次性读取的话,内存也吃不住...
恩,你的方法靠普, 能细说一下么
$fp = fopen('文件', 'r');while($buf = fgets($fp)) { $res[$buf]++;}fclose($fp);arsort($res);$res = array_keys(array_slice($res, 0, 10));print_r($res);
当100万条记录半数是唯一的情况下,与下面的算法没有多大区别
$a = file('文件');$res = array_count_values($a);arsort($res);$res = array_keys(array_slice($res, 0, 10));print_r($res);
先批量插入到数据库,然后 使用 sql 语句的 group by 和order by实现
本文原创发布php中文网,转载请注明出处,感谢您的尊重!
这篇博客探讨了如何处理包含100万条记录的文本文件,目标是提取出重复次数最多的前10条记录。提出了两种方法:一是通过SQL在数据库中进行统计,二是使用PHP直接处理文本。PHP解决方案利用了explode、array_count_values和arsort等函数,实现了读取文件、统计重复次数并排序的功能。这种方法在内存管理上更为高效,特别适合处理大量数据。
5765

被折叠的 条评论
为什么被折叠?



