hadoop 实战———WordCount源码分析

一:实例描述

      计算出文件中各个单词到频数。要求输出结果按照单词字母顺序进行排序。每个单词和其频数占一行,用间隔分开。

二:设计原理

      将文件内容切分成单词,然后把所以相同的单词聚集在一起。

      由hadoop的MapReduce框架可以在Map阶段完成单词的切分工作,在Reduce阶段完成聚集工作。

      MapReduce中传递的数据都是<key,value>形式,在Reduce中排序也是按照key进行的。所以将Map

      的输出设计成由word作为key,1作为value的形式,来表示单词word出现了1次(Map的输入采用hadoop

      默认方式,行号作为key,文件一行作为value), Reduce的输入是Map输出聚合的结果,即<key,value-list> ,

      比如 <word,{1,1,1,1.......}>,Reduce的输出设计成与Map输出相同的形式,后面的数字即为 value-list 的累计和。也就所对应的频数。

三 : 例程代码(参考Hadoop实战):

      实验环境:hadoop-1.2.1    jdk1.7.0_45    ubuntu13.10

      https://github.com/sunnybird/hadoop/blob/master/WordCount.java 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值