现在假设我们有10个接口访问日志文件,每个日志文件大小约300MB,每个文件里的日志都是按照时间戮从小到大排列。你希望将这10个较小的日志文件,合并为1个日志文件,合并之后的日志仍按照时间戮从小到大排列。如果处理上述任务的机器内存只有1GB,你有什么好的解决思路能“快速”地将这10个日志文件合并吗?
- 我们可以每次从各个文件中取一条最小的数据,在内存中根据数据时间戳构建一个最小堆,然后每次把最小值给写入新文件,同时将最小值来自的那个文件再取出来一个数据,加入到最小堆中。这个空间复杂度为常数,但没能很好利用1g内存,而且磁盘单个读取比较慢。
- 这里再考虑为每个日志文件分配50M数组,再另外分配一个500M的数组储存归并结果,每个文件每次读取50M,对10个数组做归并排序直到其中某个数组的数据被处理完,将归并结果写入磁盘,没了再从内存中取,时间复杂度还是一样O(n)。