海量数据问题

1、怎么在海量数据中找出重复次数最多的一个?
将大文件的数据进行hash,相同hash值的数据分配到一个文件,然后统计出每个文件出现次数最多的单词和对应次数,然后比较每个文件的最大出现次数,得到重复次数最多的单词
 
2、上千万或上亿数据(有重复),统计其中出现次数最多的前 N 个数据。
 
3、一个文本文件,大约有一万行,每行一个词,要求统计出其中最频繁出现的前 10 个词,给出思想,给出时间复杂度分析。
 
 
4、100w 个数中找出最大的 100 个数。
100W个数进行hash%1000,得到1000个文件,然后得到每个文件的top100,然后放入一个文件求top100
 
5、有一千万条短信,有重复,以文本文件的形式保存,一行一条,有重复。请用 5 分钟时间,找出重复出现最多的前 10 条
将一千万短信hash后存入到10000份文件中,然后找出每个文件中重复最多的10条,然后存入一个文件,找出重复最多的10条
 
6、给定a、b两个文件,各存放50亿个url,每个url各占64字节,内存限制是4G,让你找出a、b文件共同的url?
将a b 两个文件进行hash成1000份小文件,hash之后 不对应的小文件不会有相同的url,然后将a的小文件放入集合去遍历b对应的文件,找到相同的url
 
7.现有海量日志数据保存在一个超级大的文件中,该文件无法直接读入内存,要求从中提取某天出访问百度次数最多的那个IP
Step1:从这一天的日志数据中把访问百度的IP取出来,逐个写入到一个大文件中;
Step2:注意到IP是32位的,最多有2^32个IP。同样可以采用映射的方法,比如模1000,把整个大文件映射为1000个小文件;
Step3:找出每个小文中出现频率最大的IP(可以采用hash_map进行频率统计,然后再找出频率最大的几个)及相应的频率;
Step4:在这1000个最大的IP中,找出那个频率最大的IP,即为所求。
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值