python的大数据处理应用与实现

最近看到一篇关于海量数据处理的python实现,具体参(http://blog.csdn.net/quicktest/article/details/7453189#comments)。文章中主要出现的问题是对于海量数据的处理分治这块实现思想不对,改进后采用了直接对文件进行处理会导致内存溢出,在此我将运用hash对原文件进行分割再进行处理(对于海量数据的处理大家可考:http://blog.csdn.net/hackbuteer1/article/details/7622869

http://blog.csdn.net/v_july_v/article/details/7382693)。对于大数据的处理一般思想是:分治,字典,tire树等等。在此本文的实现将运用分治,字典(C++中hash_map)这两种通用方法,因为其具有通用性所以很具有参考价值。

题目:海量日志数据,提取出某日访问百度次数最多的那个IP。

现将源代码示下欢迎指正:

#!/usr/bin/python
##
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值