python hadoop wordcount_MapReduce实现wordcount

Mapper程序import  sysdef read_input(file):

for line in file:        yield  line.split()def main():

data = read_input(sys.stdin)    for words in data:        for word in words:

print("%s%s%d" %(word,'\t',1))if __name__ == "__main__":

main()

分割单词,以一下形式输出a   1

b   1

c   1

a   1

reducer程序,统计词语频率import sysfrom operator import itemgetterfrom  itertools import groupbydef read_mapper_output(file,separator='\t'):

for line in file:        yield  line.rstrip().split(separator,1)def main():

data =read_mapper_output(sys.stdin)    for current_word,group in groupby(data,itemgetter(0)):

total_count = sum(int(count) for current_word,count in group)

print("%s %s %d" %(current_word,'\t',total_count))if __name__ =='__main__':

main()

本地运行测试&

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值