hadoop之WordCount源码分析

//最近在研究hadoop,第一个想要要开始研究的必定是wordcount程序了。看了《hadoop应用开发实战讲解》结合自己的理解,对wordcount的源码进行分析。
<pre name="code" class="java">

package org.apache.hadoop.mapred;

import java.io.IOException;
import java.util.ArrayList;
import java.util.Iterator;
import java.util.List;
import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.FileInputFormat;
import org.apache.hadoop.mapred.FileOutputFormat;
import org.apache.hadoop.mapred.JobClient;
import org.apache.hadoop.mapred.JobConf;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.Mapper;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: HadoopWordCount测试是Hadoop的一个基本测试,用于测试Hadoop集群的运行情况和性能。该测试的目的是统计一个文本文件中每个单词出现的次数。测试过程中,Hadoop会将文本文件分成多个块,并将这些块分配给不同的节点进行处理。每个节点会对自己分配的块进行单词计数,然后将结果发送给主节点进行汇总。最终,主节点会将所有节点的结果合并起来,得到最终的单词计数结果。这个测试可以帮助我们了解Hadoop集群的运行情况和性能,以及优化Hadoop集群的配置和参数。 ### 回答2: HadoopWordCount测试是一个基础的MapReduce程序,目的是对一个文本文件进行词频统计。这个测试可以帮助初学者熟悉Hadoop的运行环境以及编写MapReduce程序的方法。 WordCount测试需要先将文本文件上传至Hadoop分布式文件系统(HDFS)中。上传完成后,可以通过Hadoop提供的命令行工具执行WordCount程序。具体步骤如下: 1. 向HDFS上传测试文件 使用以下命令向HDFS上传测试文件: ``` hdfs dfs -put input.txt /input ``` 其中,`input.txt`是待统计的文本文件名,`/input`是HDFS中的目录。 2. 编写WordCount程序 在编写WordCount程序时,需要实现两个主要的类:`Mapper`和`Reducer`。`Mapper`类负责读取文本文件并将其中的单词拆分成键值对,`Reducer`类负责对键值对进行统计计算。其中,键是单词,值是单词的出现次数。 下面是Mapper类和Reducer类的示例代码: ``` public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable> { private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString(); StringTokenizer tokenizer = new StringTokenizer(line); while (tokenizer.hasMoreTokens()) { word.set(tokenizer.nextToken()); context.write(word, one); } } } public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable> { public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { int sum = 0; for (IntWritable val : values) { sum += val.get(); } context.write(key, new IntWritable(sum)); } } ``` 3. 执行WordCount程序 使用以下命令执行WordCount程序: ``` hadoop jar /path/to/hadoop-streaming.jar \ -input /input \ -output /output \ -mapper WordCountMapper.java \ -reducer WordCountReducer.java \ -file WordCountMapper.java \ -file WordCountReducer.java ``` 其中,`/path/to/hadoop-streaming.jar`是Hadoop提供的MapReduce执行程序,`/input`和`/output`分别是输入和输出目录,`WordCountMapper.java`和`WordCountReducer.java`是Mapper类和Reducer类的java文件。使用`-file`参数将这两个文件上传至Hadoop集群中的每台机器上。 执行完成后,可以使用以下命令查看输出文件: ``` hdfs dfs -cat /output/part-r-00000 ``` 这样可以看到类似下面的输出结果: ``` apple 3 banana 1 orange 2 ... ``` 这里的输出结果表示输入文本中`apple`出现了3次,`banana`出现了1次,`orange`出现了2次,以此类推。 总之,通过这个WordCount测试,初学者可以熟悉HadoopMapReduce编程模型,掌握基本的MapReduce编程方法,同时也可以了解Hadoop的运行环境和基本命令行操作。 ### 回答3: HadoopWordCount测试是Hadoop中最基本,也是最常见的一个测试,用于验证Hadoop集群的配置和工作能力。测试的目的是计算出给定文本文件中每个单词出现的次数,可以通过Hadoop MapReduce编程框架和Hadoop分布式文件系统(HDFS)来实现。 WordCount测试流程: 1.准备输入数据文件:可以使用任何文本文件作为输入,例如一些文章,博客,日志等。通常使用的文件格式是以文本格式存储的普通文本文件。 2.将输入文件上传到HDFS上:可以使用HDFS命令行工具将文本文件上传到HDFS上。一旦文件上传到HDFS,Hadoop就可以对其进行分布式处理了。 3.编写MapReduce程序:通过编写MapReduce程序实现WordCount测试。Mapper阶段用于将输入文件中的文本划分成单词,Reducer阶段用于计算每个单词出现的次数。 4.执行程序:使用Hadoop集群的提交作业命令(hadoop jar)提交MapReduce程序。 5.查看输出结果:Hadoop将执行MapReduce程序的输出结果存储到HDFS上,可以通过命令行或Web界面进行查看。 WordCount测试的结果对于调试Hadoop集群以及运行MapReduce程序具有重要的作用。WordCount测试是Hadoop中最基础的测试案例,也可以根据需要进行扩展和修改,例如计算倒排索引等。需要注意的是,进行WordCount测试需要对HadoopMapReduce框架有一定的了解,才能正确完成测试并获取正确的结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值