mapreduce代码统计文本单词

读取文本数据按空格进行拆分

 

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Mapper;

 

import java.io.IOException;

 

 

//LongWritable 偏移量 long 表示改行在文件中的位置,而不是行号

//Text map阶段的输入数据 一行文本信息 字符串类型 string

// Text map阶段的数据字符串类型 string

//IntWritable map阶段输出的value类型,对应java中的int类型,表示行号

 

public class WordCountMap extends Mapper<LongWritable, Text,Text, IntWritable> {

    @Override

    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {

        //读取每行文本

        String line = value.toString();

        //splite拆分每行

        String[] words = line.split(" ");//分词

        //去除每个单词

        for (String word : words){

            //将行数据转换为Text类型

            Text wordText = new Text(word);

            //将1 转变为IntWritable

            IntWritable outValue = new IntWritable(1);

            //写出单词跟对应1

            context.write(wordText,outValue);

        }

 

    }

}

用context.write输出

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Reducer;

import java.io.IOException;

/**

 * Text 输入的字符串类型 序列化

 * IntWritable 输入一串 1 序列化

 * Text 输出的字符串类型 序列化

 * IntWritable 输出的求和数组 序列化

 * **/

public class WordCountReduce extends Reducer <Text, IntWritable,Text,IntWritable>{

    /**

     * key 输入单词的名字

     * values 输入一串 1

     * context 输出的工具

     * **/

    @Override

    protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {

        int sum=0;

        for (IntWritable number:values) {

            sum += number.get();

        }

        context.write(key,new IntWritable());

    }

}

连接wordCountMap、WordCountReduce指定map阶段和reduce阶段的输出文件位置

 

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class WordCount {

    public static void main(String[] args) throws Exception{

        //定义配置对象

        Configuration conf = new Configuration();

        //定义一个工作任务对象

        Job job = Job.getInstance(conf);

 

        //获取map阶段的一个对象

        job.setMapperClass(WordCountMap.class);

        //指定map阶段的一个输出key

        job.setOutputKeyClass(Text.class);

        //指定map阶段输出的values类型

        job.setOutputValueClass(IntWritable.class);

        //map阶段的输出文件

        FileInputFormat.setInputPaths(job,new Path("C:/Users/LeiShuTin/Desktop/123.txt"));

 

        //指定Reduce的类

        job.setReducerClass(WordCountReduce.class);

        //指定reduce阶段的输出key

        job.setOutputKeyClass(Text.class);

        //指定reduce阶段输出的values类型

        job.setOutputValueClass(IntWritable.class);

        //指定reduce阶段的输出文件

        FileOutputFormat.setOutputPath(job,new Path("C:/Users/LeiShuTin/Desktop/456.txt"));

 

        //submit提交

        job.waitForCompletion(true);

    }

}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值