MapReduce Java API实例-统计单词出现频率

场景

Windows下使用Java API操作HDFS的常用方法:

https://blog.csdn.net/BADAO_LIUMANG_QIZHI/article/details/119382108

在上面使用Java API操作HDFS已经配置开发环境的基础上。

使用Java API操作Mapreduce统计单次出现的次数。

这里Hadoop集群搭建的是Hadoop2.8.0,所以新建Maven项目并引入依赖

        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-client -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>2.8.0</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-common -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.8.0</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-hdfs -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs</artifactId>
            <version>2.8.0</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-hdfs-client -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs-client</artifactId>
            <version>2.8.0</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-mapreduce-client-core -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-mapreduce-client-core</artifactId>
            <version>2.8.0</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/junit/junit -->
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>4.12</version>
            <scope>test</scope>
        </dependency>

注:

博客:
https://blog.csdn.net/badao_liumang_qizhi
关注公众号
霸道的程序猿
获取编程相关电子书、教程推送与免费下载。

实现

实现对指定目录或文件中的单词出现次数进行统计,默认输出结果是以单词字典排序。
采用默认文本读入,每行读取一次,然后使用\t对数据进行分割或者使用字符串类
StringTokenizer对其分割(该类会按照空格、\t、\n等进行切分)。在Reduce端相同的key,即
相同的单词会在一起进行求和处理,求出出现次数。

1、首先新建数据集worlds.txt

2、编写map类,通过继承Mapper类实现里面的map函数

Mapper类中的第一个参数是Object(常用),也可以写成Long

第一个参数对应的值是行偏移量

第二个参数类型通常是Text类型,Text类型是Hadoop实现的String类型的可写类型

第三个参数表示的是输出key的数据类型

第四个参数表示的是输出value的数据类型,IntWritable是Hadoop实现的int类型的可写数据类型

package com.badao.mapreducedemo;


import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

import java.io.IOException;
import java.util.StringTokenizer;

public class WorldCountMapper extends Mapper<Object,Text,Text,IntWritable> {
    //1、编写map函数,通过继承Mapper类实现里面的map函数
    //   Mapper类当中的第一个函数是Object,也可以写成Long
    //   第一个参数对应的值是行偏移量

    //2、第二个参数类型通常是Text类型,Text是Hadoop实现的String 类型的可写类型
    //   第二个参数对应的值是每行字符串

    //3、第三个参数表示的是输出key的数据类型

    //4、第四个参数表示的是输出value的数据类型,IntWriable 是Hadoop实现的int类型的可写数据类型

    public final static IntWritable one = new IntWritable(1);
    public Text word = new Text();

    //key 是行偏移量
    //value是每行字符串
    @Override
    public void map(Object key, Text value, Context context) throws IOException, InterruptedException {
        StringTokenizer stringTokenizer = new StringTokenizer(value.toString());
        while (stringTokenizer.hasMoreTokens())
        {
            //stringTokenizer.nextToken()是字符串类型,使用set函数完成字符串到Text数据类型的转换
            word.set(stringTokenizer.nextToken());
            //通过write函数写入到本地文件
            context.write(word,one);
        }
    }
}

这里有个很重要的一点就是,千万不要导错包!!!

尤其是Text

3、编写reduce类

通过继承Reduce类实现里面的reduce函数

第一个参数类型是输入值key的数据类型,map中间输出key的数据类型

第二个参数是输入值为value的数据类型,map中间输出value的数据类型

第三个参数是输出值key的数据类型,它的数据类型要跟job.setOutputKeyClass(Text.Class)保持一致

第四个参数类型是输出值value的数据类型,它的数据类型要跟job.setOutputValueClass(IntWriable.class)保持一致

package com.badao.mapreducedemo;

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
import java.io.IOException;


//第一个参数类型是输入值key的数据类型,map中间输出key的数据类型
//第二个参数类型是输入值value的数据类型,map中间输出value的数据类型
//第三个参数类型是输出值key的数据类型,他的数据类型要跟job.setOutputKeyClass(Text.class) 保持一致
//第四个参数类型是输出值value的数据类型,它的数据类型要跟job.setOutputValueClass(IntWriable.class) 保持一致

public class WordCountReducer extends Reducer<Text, IntWritable,Text,IntWritable> {

    public IntWritable result = new IntWritable();


    //key就是单词  values是单词出现频率列表
    @Override
    public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
        int sum = 0;
        for(IntWritable val:values)
        {
            //get就是取出IntWriable的值
            sum += val.get();
        }
        result.set(sum);
        context.write(key,result);
    }
}

4、编写job类

这里把Windows本地文件和集群HDFS抽离出两个方法

本地文件

    public static void wordCountLocal()throws IOException, ClassNotFoundException, InterruptedException
    {
        Configuration conf = new Configuration();
        //实例化一个作业,word count是作业的名字
        Job job = Job.getInstance(conf, "wordcount");
        //指定通过哪个类找到对应的jar包
        job.setJarByClass(WorldCountJob.class);
        //为job设置Mapper类
        job.setMapperClass(WorldCountMapper.class);
        job.setCombinerClass(IntSumReducer.class);
        //为job设置reduce类
        job.setReducerClass(WordCountReducer.class);
        //为job的输出数据设置key类
        job.setOutputKeyClass(Text.class);
        //为job输出设置value类
        job.setOutputValueClass(IntWritable.class);
        //为job设置输入路径,输入路径是存在的文件夹/文件
        FileInputFormat.addInputPath(job,new Path("D:\\words.txt"));
        //为job设置输出路径
        FileOutputFormat.setOutputPath(job,new Path("D:\\badao"));
        job.waitForCompletion(true);
    }

注意事项:

这里的输入路径必须存在,就是上面新建的数据集。

输出路径必须不能存在,不然会报错路径已经存在

注意这里的FileOutputFormat导入的包路径是下面的路径

然后在main方法中调用该方法

运行成功后会在D盘下badao目录下生成part-r-00000文件,这就是统计结果

集群HDFS

    public static void wordCountColony()throws IOException, ClassNotFoundException, InterruptedException
    {
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://192.168.148.128:9000");
        System.setProperty("HADOOP_USER_NAME","root");
        //实例化一个作业,word count是作业的名字
        Job job = Job.getInstance(conf, "wordcount");
        //指定通过哪个类找到对应的jar包
        job.setJarByClass(WorldCountJob.class);
        //为job设置Mapper类
        job.setMapperClass(WorldCountMapper.class);
        job.setCombinerClass(IntSumReducer.class);
        //为job设置reduce类
        job.setReducerClass(WordCountReducer.class);
        //为job的输出数据设置key类
        job.setOutputKeyClass(Text.class);
        //为job输出设置value类
        job.setOutputValueClass(IntWritable.class);
        //为job设置输入路径,输入路径是存在的文件夹/文件
        FileInputFormat.addInputPath(job,new Path("/words.txt"));
        //为job设置输出路径
        FileOutputFormat.setOutputPath(job,new Path("/badao9"));
        job.waitForCompletion(true);
    }

然后将数据集上传到集群HDFS中

然后main方法中运行该方法

运行结束后查看该文件

 job完整代码:

package com.badao.mapreducedemo;


import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.reduce.IntSumReducer;
import java.io.IOException;

public class WorldCountJob {
    public static void main(String[] args) throws InterruptedException, IOException, ClassNotFoundException {
        wordCountLocal();
    }

    public static void wordCountLocal()throws IOException, ClassNotFoundException, InterruptedException
    {
        Configuration conf = new Configuration();
        //实例化一个作业,word count是作业的名字
        Job job = Job.getInstance(conf, "wordcount");
        //指定通过哪个类找到对应的jar包
        job.setJarByClass(WorldCountJob.class);
        //为job设置Mapper类
        job.setMapperClass(WorldCountMapper.class);
        job.setCombinerClass(IntSumReducer.class);
        //为job设置reduce类
        job.setReducerClass(WordCountReducer.class);
        //为job的输出数据设置key类
        job.setOutputKeyClass(Text.class);
        //为job输出设置value类
        job.setOutputValueClass(IntWritable.class);
        //为job设置输入路径,输入路径是存在的文件夹/文件
        FileInputFormat.addInputPath(job,new Path("D:\\words.txt"));
        //为job设置输出路径
        FileOutputFormat.setOutputPath(job,new Path("D:\\badao"));
        job.waitForCompletion(true);
    }

    public static void wordCountColony()throws IOException, ClassNotFoundException, InterruptedException
    {
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://192.168.148.128:9000");
        System.setProperty("HADOOP_USER_NAME","root");
        //实例化一个作业,word count是作业的名字
        Job job = Job.getInstance(conf, "wordcount");
        //指定通过哪个类找到对应的jar包
        job.setJarByClass(WorldCountJob.class);
        //为job设置Mapper类
        job.setMapperClass(WorldCountMapper.class);
        job.setCombinerClass(IntSumReducer.class);
        //为job设置reduce类
        job.setReducerClass(WordCountReducer.class);
        //为job的输出数据设置key类
        job.setOutputKeyClass(Text.class);
        //为job输出设置value类
        job.setOutputValueClass(IntWritable.class);
        //为job设置输入路径,输入路径是存在的文件夹/文件
        FileInputFormat.addInputPath(job,new Path("/words.txt"));
        //为job设置输出路径
        FileOutputFormat.setOutputPath(job,new Path("/badao9"));
        job.waitForCompletion(true);
    }
}

示例代码下载:

https://download.csdn.net/download/BADAO_LIUMANG_QIZHI/20718869

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

霸道流氓气质

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值