java海量数据_如何进行java海量数据处理,下面一段是我摘抄的问题及处理方法...

1、海量日志数据,提取出某日访问百度次数最多的那个IP。首先是这一天,并且是访问百度的日志中的IP取出来,逐个写入到一个大文件中。注意到IP是32位的,最多有个2^32个IP。同样可以采...

1、海量日志数据,提取出某日访问百度次数最多的那个IP。

首先是这一天,并且是访问百度的日志中的IP取出来,逐个写入到一个大文件中。注意到IP是32位的,最多有个2^32个IP。同样可以采用映射的方法,比如模1000,把整个大文件映射为1000个小文件,再找出每个小文中出现频率最大的IP(可以采用hash_map进行频率统计,然后再找出频率最大的几个)及相应的频率。然后再在这1000个最大的IP中,找出那个频率最大的IP,即为所求。

或者如下阐述(雪域之鹰):

算法思想:分而治之+Hash

1.IP地址最多有2^32=4G种取值情况,所以不能完全加载到内存中处理;

2.可以考虑采用“分而治之”的思想,按照IP地址的Hash(IP)%1024值,把海量IP日志分别存储到1024个小文件中。这样,每个小文件最多包含4MB个IP地址;

3.对于每一个小文件,可以构建一个IP为key,出现次数为value的Hash map,同时记录当前出现次数最多的那个IP地址;

4.可以得到1024个小文件中的出现次数最多的IP,再依据常规的排序算法得到总体上出现次数最多的IP;

对于上面的方案,我的理解是,他求了每个小文件中最大频率的ip,然后再比较这些最大ip,从这些最大ip中求出一个最大ip,即求出了1024个最大ip中的最大的那一个。

我感觉这个值不应该是要求的那个。因为可能某一个ip在某一个小文件中可能出现频率很高,但是在其他小文件中可能没出现几次,即分布不均,但因为某一个小文件中特别多而被选出来了;而另一个ip可能在每个小文件中都不是出现最多的,但是它在每个文件中都出现很多次,即分布均匀,因此非常有可能它就是总的出现次数最多的,但是因为在每个小文件中出现的次数都不是最多的而被刷掉了。所以我感觉上面的方案不行。

如果我理解有误,请大神指点,如果无误(即上面的方案是错的),请大神指点一个正确可行的方案..........,拜谢了........

展开

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值