手写MapReduce实现WordCount

文章介绍了如何使用MapReduce在Hadoop框架下统计文本文件word.txt中每个单词的出现次数,包括Mapper处理单词拆分和计数,Reducer进行值累加,以及Driver类作为程序入口提交Job。
摘要由CSDN通过智能技术生成

水善利万物而不争,处众人之所恶,故几于道💦

需求

  假设有一个文本文件word.txt,我们想要统计这个文本文件中每个单词出现的次数。
文件内容如下:

在这里插入图片描述
期望输出结果:
在这里插入图片描述

分析

  根据MapReduce的思想,整体分为两个过程一个是Map阶段,一个是Reduce阶段。可以粗略得出下面几步:
  ①将读取到的数据进行单词间的拆分,拆出来一个一个的单词。
  ②将每个单词出现的次数标记为1。eg:(hello,1)、(qcln,1)…
  ③然后相同单词进入一个ReduceTask,进行value值的累加,也就算出了这个单词出现的次数。
  ④将最终的结果输出。

在这里插入图片描述

编写MapReduce实现上述功能

要先添加Hadoop的项目依赖(建Maven项目)

<dependencies>
    <dependency>
        <!-- Hadoop的项目依赖-->
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-client</artifactId>
        <version>3.1.3</version>
    </dependency>
    <dependency>
        <!--这个可加可不加,是为了在控制台打印日志的,
        加上的话要在resources目录下建一个log4j.properties配置文件-->
        <groupId>org.slf4j</groupId>
        <artifactId>slf4j-log4j12</artifactId>
        <version>1.7.30</version>
    </dependency>
</dependencies>

resources目录下log4j.properties配置文件内容:

log4j.rootLogger=INFO,stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n

项目目录结构:
在这里插入图片描述

编写MapReduce程序的话要写三个类Mapper、Reducer、Driver

Mapper类:继承Mapper类,重写map方法。每行数据读进来后,他都要调用map方法对数据进行处理,处理完后,再把数据写回框架,让框架处理。

Recuder类:继承Reducer类,重写reduce方法。key值相同的数据会进入同一个reduce方法,这个阶段会调用reduce方法对这一组key值相同的数据进行处理。

Driver类:整个MapReduce程序的入口,在这个类中写main方法。这个类主要是创建一个job实例,然后给job赋值(指定Mapper类、Reducer类、Mapper输出的key value类型、最终结果输出的key value类型、Map Reduce程序的读取文件路径和结果输出路径),最后提交该job

Mapper类
package com.daemon.mr.wordcount;

import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

import java.io.IOException;

/**
 * Author: Pepsi
 * Date: 2023/12/21
 * Desc:
 */

/*
* Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>
    泛型含义:
        1.偏移量:是一行中数据的偏移量,可以理解成这一行数据长度的样子。
          比如第一行  abcde  第二行 qwe,假如第一行的偏移量是0,第二行的偏移量可能就是8
          这个类型只能为LongWritable类型,偏移量比较大
        2.读到的每行数据的类型
        3.输出的key的类型  因为这里词频统计map后想要输出(aaa,2)这种形式,所以key是Text value是LongWritable类型
        4.输出的value的类型
    
    这个类主要的作用就是封装kv对也就是标记,
    也就是WordCount需求中将每行数据处理为(hello,1)这种格式
* */
public class WCMappre extends Mapper<LongWritable,Text, Text, LongWritable> {
		
    // 创建一个输出键的对象,待会儿取到数据后直接赋值给他,然后写出去
    // 定义在map外面就不用频繁创建对象了
    private Text outKey = new Text();
    // 创建一个输出值的对象,也就是那个频率,这里直接给他初始化为1,直接用  
    private LongWritable outValue = new LongWritable(1);

    /**
     *
     * @param key 读取到每行数据的偏移量
     * @param value  读取到的那一行数据
     * @param context 上下文对象,可以理解为程序本身,因为是框架下编程,所以处理结果要还给框架
     * @throws IOException
     * @throws InterruptedException
     */
    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        //super.map(key, value, context);

        //System.out.println("这是偏移量:"+key);

	    //将读取到的一行数据转换为字符串类型(Text类型是Hadoop的类型没法切割)
	    // 然后按照空格切分,因为要读取的数据文件中单词之间使用空格分开的
        String[] words = value.toString().split(" ");
		// 得到这一行的单词数组后,进行遍历每个单词
        for (String word : words) {
        	// 将上面创建好的Text对象的值设置为当前遍历到的单词 ==> outKey=qcln  outValue=1
            outKey.set(word);
            // 写回框架,后续交给框架处理   ==> (qcln,1)
            context.write(outKey,outValue);
        }

    }
}
Reducer类
package com.daemon.mr.wordcount;

import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

import java.io.IOException;

/**
 * Author: Pepsi
 * Date: 2023/12/21
 * Desc:
 */

/*
Mapper<KEYIN, VALUEIN, KEYOUT, VALUEOUT>
1.输入的key的类型 也就是Map阶段输出key的类型
2.输入的value的类型  也就是Map阶段输出的value的类型
3.最终结果输出的key的类型  也就是写出到文件中的key的类型,是单词,所以是Text类型
4.最终的结果输出的value的类型 也就是写出到文件中的value的类型,是单词出现的次数,所以是LongWritable类型(IntWritable也行,只不过如果数据量大,怕IntWritable放不下)
 */
public class WCReducer extends Reducer<Text, LongWritable,Text,LongWritable> {

	// 用来存放单词出现的总次数,最后要将他写出去
    private LongWritable outVale = new LongWritable();
    /**
     *
     * @param key map结果输出的key
     * @param values 相同key的所有值
     * @param context 上下文
     * @throws IOException
     * @throws InterruptedException
     */
    @Override
    protected void reduce(Text key, Iterable<LongWritable> values, Context context) throws IOException, InterruptedException {
        //super.reduce(key, values, context);

		// 累加变量,存放单词出现的总次数,待会要把这个结果赋给LongWritable,然后写出去
        long count = 0;
		// 遍历每个value
        for (LongWritable value : values) {
            // get()方法返回一个long类型的值
            count+=value.get();
        }
        // 将long类型的累加变量赋值给LongWritable => outVale=2
        outVale.set(count);
        // 将结果写出去 => (qcln,2)
        context.write(key,outVale);

    }
}
Driver类
package com.daemon.mr.wordcount;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import java.io.IOException;

/**
 * Author: Pepsi
 * Date: 2023/12/21
 * Desc:
 */
public class WCDriver {
    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
        
        Configuration conf = new Configuration();
        // 1. 创建job实例,可以不传conf,传的话可以用conf.set(key,value)进行一些配置
        Job job = Job.getInstance(conf);
        
		// 2. 给job赋值
		// 设置jar的入口类,如果是本地运行可以不写,如果想要将项目打jar包扔在集群上运行必须写
        job.setJarByClass(WCDriver.class);
		// 指定Mapper和Reducer类
        job.setMapperClass(WCMappre.class);
        job.setReducerClass(WCReducer.class);
		// 设置Mapper输出的key value 类型
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(LongWritable.class);
		// 设置整个程序输出的key value类型 -- Reducer的输出也就是整个程序的输出,所以也可以理解为Reducer的输出类型
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(LongWritable.class);
		// 设置程序从哪读取文件,将结果输出到哪,输出目录不能存在
        FileInputFormat.setInputPaths(job,new Path("D:\\word.txt"));
        FileOutputFormat.setOutputPath(job,new Path("D:\\output"));

		// 3. 提交job,运行。 也可以不接收这个返回值
        boolean b = job.waitForCompletion(true);
		// 程序结束返回的状态码
        System.exit(b ? 0 : 1);
    }
}

查看输出结果

在这里插入图片描述在这里插入图片描述

  • 18
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阿年、嗯啊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值