Hadoop源码分析之WordCount

WordCount程序是hadoop自带的案例,我们可以在 hadoop 解压目录下找到包含这个程序的 jar 文件(hadoop-mapreduce-examples-2.7.1.jar),该文件所在路径为 hadoop/share/hadoop/mapreduce
最简单的MapReduce应用程序至少包含 3 个部分:一个 Map 函数、一个 Reduce 函数和一个 main 函数。在运行一个mapreduce计算任务时候,任务过程被分为两个阶段:map阶段和reduce阶段,每个阶段都是用键值对(key/value)作为输入(input)和输出(output)。main 函数将作业控制和文件输入/输出结合起来。
Map过程:并行读取文本,对读取的单词进行map操作,每个词都以<key,value>形式生成。
举例
一个有三行文本的文件进行MapReduce操作。
1、读取第一行Hello World Bye World ,分割单词形成Map:
<Hello,1> <World,1> <Bye,1> <World,1>
2、读取第二行Hello Hadoop Bye Hadoop ,分割单词形成Map:
<Hello,1> <Hadoop,1> <Bye,1> <Hadoop,1>
3、读取第三行Bye Hadoop Hello Hadoop,分割单词形成Map:
<Bye,1> <Hadoop,1> <Hello,1> <Hadoop,1>
Reduce过程:是对map的结果进行排序,合并,最后得出词频。
举例
1、经过进一步处理(combiner),将形成的Map根据相同的key组合成value数组:
<Bye,1,1,1> <Hadoop,1,1,1,1> <Hello,1,1,1> <World,1,1>
2、循环执行Reduce(K,V[]),分别统计每个单词出现的次数:
<Bye,3> <Hadoop,4> <Hello,3> <World,2>
WordCount源码如下:

package org.apache.hadoop.examples;

import java.io.IOException;
import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;

public class WordCount {
  /**
   * TokenizerMapper继承Mapper类
   * Mapper<KEYIN(输入key类型), VALUEIN(输入value类型), KEYOUT(输出key类型), VALUEOUT(输出value类型)>
   */
  public static class TokenizerMapper 
       extends Mapper<Object, Text, Text, IntWritable>{

    // 因为若每个单词出现后,就置为 1,并将其作为一个<key,value>对,因此可以声明为常量,值为 1
    private final static IntWritable one = new IntWritable(1);//VALUEOUT
    private Text word = new Text();//KEYOUT

    /**
     *重写map方法,读取初试划分的每一个键值对,即行偏移量和一行字符串,key为偏移量,value为该行字符串
     */
    public void map(Object key, Text value, Context context
                    ) throws IOException, InterruptedException {
      /**
       * 因为每一行就是一个spilt,并会为之生成一个mapper,所以我们的参数,key就是偏移量,value就是一行字符串
       * value是一行的字符串,这里将其切割成多个单词,将每行的单词进行分割,按照"  \t\n\r\f"(空格、制表符、换行符、回车符、换页)进行分割
       */
      StringTokenizer itr = new StringTokenizer(value.toString());

      //遍历
      while (itr.hasMoreTokens()) {
        //获取每个值并设置map输出的key值
        word.set(itr.nextToken());
        //one代表1,最开始每个单词都是1次,context直接将<word,1>写到本地磁盘上
        //write函数直接将两个参数封装成<key,value>
        context.write(word, one);
      }
    }
  }

  /**
   * IntSumReducer继承Reducer类
   * Reducer<KEYIN, VALUEIN, KEYOUT, VALUEOUT>:Map的输出类型,就是Reduce的输入类型
   */
  public static class IntSumReducer 
       extends Reducer<Text,IntWritable,Text,IntWritable> {
    //输出结果,总次数
    private IntWritable result = new IntWritable();

    /**
     *重写reduce函数,key为单词,values是reducer从多个mapper中得到数据后进行排序并将相同key组
     *合成<key.list<V>>中的list<V>,也就是说明排序这些工作都是mapper和reducer自己去做的,
     *我们只需要专注与在map和reduce函数中处理排序处理后的结果
     */
    public void reduce(Text key, Iterable<IntWritable> values, 
                       Context context
                       ) throws IOException, InterruptedException {

      /**
       *因为在同一个spilt对应的mapper中,会将其进行combine,使得其中单词(key)不重复,然后将这些键值对按照
       *hash函数分配给对应的reducer,reducer进行排序,和组合成list,然后再调用的用户自定义的函数
       */
      int sum = 0;//累加器,累加每个单词出现的次数
      //遍历values
      for (IntWritable val : values) {
        sum += val.get();//累加
      }
      result.set(sum);//设置输出value
      context.write(key, result);//context输出reduce结果
    }
  }

  public static void main(String[] args) throws Exception {
    //获取配置信息
    Configuration conf = new Configuration();
    String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
    if (otherArgs.length < 2) {
      System.err.println("Usage: wordcount <in> [<in>...] <out>");
      System.exit(2);
    }
    Job job = Job.getInstance(conf, "word count");//创建一个job,设置名称
    job.setJarByClass(WordCount.class);//1、设置job运行的类
    //2、设置mapper类、Combiner类和Reducer类
    job.setMapperClass(TokenizerMapper.class);
    job.setCombinerClass(IntSumReducer.class);
    job.setReducerClass(IntSumReducer.class);
    //3、设置输出结果key和value的类
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);
    for (int i = 0; i < otherArgs.length - 1; ++i) {
      FileInputFormat.addInputPath(job, new Path(otherArgs[i]));//4、为job设置输入陆军
    }
    FileOutputFormat.setOutputPath(job,//5、为job设置输出路径
      new Path(otherArgs[otherArgs.length - 1]));
    System.exit(job.waitForCompletion(true) ? 0 : 1);//6、结束程序
  }
}

转自链接:https://www.jianshu.com/p/3136a9fa84ed

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 要在Hadoop平台上部署WordCount程序,需要按照以下步骤进行操作: 1. 准备Hadoop环境:安装Hadoop并配置好环境变量。 2. 准备WordCount程序:编写WordCount程序并打包成jar文件。 3. 将输入文件上传到HDFS:使用hadoop fs -put命令将输入文件上传到HDFS中。 4. 运行WordCount程序:使用hadoop jar命令运行WordCount程序,指定输入文件和输出文件的路径。 5. 查看输出结果:使用hadoop fs -cat命令查看输出文件的内容,确认WordCount程序是否运行成功。 以上是在Hadoop平台上部署WordCount程序的基本步骤,具体操作可以参考Hadoop官方文档或相关教程。 ### 回答2: Hadoop是一个分布式计算平台,它在处理大数据集方面具有很强的优势。WordCount程序是Hadoop平台上一个非常简单而又常用的样例程序,它的实现过程可以让初学者更好地了解Hadoop平台的原理和流程。 下面是在Hadoop平台上部署和实现WordCount程序的详细步骤: 1. 安装和配置Hadoop:首先需要在每台节点上安装Hadoop,并进行配置。在Hadoop平台上运行WordCount程序至少需要一个主节点和一个从节点,因此需要按照相应的规格配置机器。 2. 准备数据:WordCount程序最基本的输入数据是由一些文本文件组成的文件夹。数据可以存储在Hadoop平台的HDFS分布式文件系统中。在准备数据时需要注意保证数据数量足够,充分的满足MapReduce的并行运算需求。 3. 编写WordCount程序:实现WordCount程序需要编写两个Java程序:一个是Map程序,另一个是Reduce程序。Map程序是用来将输入文件分割成一个一个的数据块,然后对每个数据块计算出单词和它们的次数。Reduce程序接受Map程序输出的结果,对这些结果进行汇总,得到最终的单词和它们的计数。 4. 打包和上传程序:将编写好的程序打包成jar包,并上传到Hadoop集群中的任意节点,随后到节点上执行WordCount程序。 5. 运行WordCount程序:在Hadoop平台上启动WordCount程序,本地模式或集群模式都可。在运行程序前需要设置好程序的输入、输出路径等参数。程序将从HDFS分布式文件系统读取输入数据,执行MapReduce运算,然后将结果存储到HDFS分布式文件系统中。 通过上述步骤,我们就可以成功地在Hadoop平台上部署和实现WordCount程序了。这个简单的程序虽然实现起来很容易,但是它为我们进一步使用Hadoop平台进行大数据处理提供了基础。 ### 回答3: 在Hadoop平台上部署WordCount程序,需要按照以下步骤进行: 1. 安装和配置Hadoop 首先需要安装配置好Hadoop。其安装过程可以通过官网提供的文档进行操作,也可以参考一些第三方的教程进行操作。在安装过程中,需要保证Hadoop的配置文件正确,同时需要调整好集群中各个节点的配置。 2. 准备WordCount程序 WordCount程序是一个经典的Hadoop应用程序,其可以对文本进行统计单词数的操作。开发者可以在官网提供的文档中找到WordCount程序的源代码,然后进行下载和编译。在这个过程中需要保证程序编译成功,并且可以被Hadoop正确的加载和运行。 3. 部署WordCount程序 在准备完WordCount程序之后,需要将其部署到Hadoop的节点上。这个过程需要做好以下几个准备工作: - 将程序打包成可执行的JAR文件。 - 将JAR文件上传到Hadoop集群中,可以使用hdfs命令进行上传。 - 配置Hadoop中JobTracker的参数,将WordCount程序文件所在目录添加到Hadoop的CLASSPATH中,同时将java运行参数设置正确。 - 在Hadoop集群中进行WordCount的提交,并等待程序运行完成。 4. 查看程序的运行结果 最后,可以通过Hadoop提供的命令行工具查看程序的运行结果。具体命令如下: - Hadoop fs -ls /output:查看程序的输出结果。 - Hadoop fs -cat /output/part-r-00000:查看程序的统计结果。 以上就是在Hadoop平台上部署WordCount程序的基本过程。这个过程比较复杂,需要仔细的操作和配置才能顺利的完成。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值