前天去腾讯面试大数据开发,问到的题目,总结一下。
题目一、有一个包含100亿个URL的大文件,假设每个URL占用16B,请找出其中所有重复的URL。
题目二、某搜索公司一天的用户搜索词汇是海量的百亿数据量,请设计一种求出每天最热top 100 词汇的可行办法。
题目一解法:
由于数据量很大,16*100亿B = 1600亿Byte,约等于160G。10亿Byte约等于1G大小。这种题目都是有数据资源限制的。如果说机器内存只有16G,那我们可以通过Hash算法,把原始大文件,hash分成10个小文件。或者hash成更多更小的文件,以满足机器资源限制。因为通过hash,我们可以保证相同的URL一定可以被分配到相同的小文件上。然后从每个文件里统计计算每个URL出现就可以了,可以使用hashMap存放统计结果。
题目二解法:
其实也是基于题目一来发散这个题目。每天海量的搜索数据,会先存起来。但是我们在存的时候,也是先做hash,看新进来的词汇会分配到那个节点(或者说小文件、分区),更新统计这个节点(分区)的hashmap统计结果,也就是给这个新加的词汇出现次数+1,然后这个文件,对应的hashmap统计有一个小根堆(100个node),存放着当前这个小文件top 100的最热统计,最后我们汇总多个小文件的小根堆,得到总的top 100.