大数据知识专栏 - MapReduce 自定义计数器技术

MapReduce计数器

作用

​ 1, 观察MapReduce的运行过程, 相当于日志;

​ 2, 用于根据计数器的数据指标进行优化作业;

​ 3, 辅助诊断系统故障等.

使用

MapReduce内置计数器

​ 给我们提供了一部分计数器, 如下:

MapReduce任务计数器org.apache.hadoop.mapreduce.TaskCounter
文件系统计数器org.apache.hadoop.mapreduce.FileSystemCounter
FileInputFormat计数器org.apache.hadoop.mapreduce.lib.input.FileInputFormatCounter
FileOutputFormat计数器org.apache.hadoop.mapreduce.lib.output.FileOutputFormatCounter
作业计数器org.apache.hadoop.mapreduce.JobCounter
ShuffleError计数器org.apache.hadoop.mapreduce.task.reduce.Fetcher.ShuffleErrors

自定义计数器

如果内置计数器不满足我们统计需求, 还可以灵活的创建自定义技术器. 获取计数器的方式有两种, 通过Context获取或者枚举的方式创建, 都非常简单易操作, 使用任意一种都可以.

方式1: context.getCounter(分类, 名称)

Mapper类代码:

import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Counter;
import org.apache.hadoop.mapreduce.Mapper;

import java.io.IOException;

public class PartitionMapper extends Mapper<LongWritable, Text, LongWritable, Text> {

    /**
     * Mapper逻辑: 将数据原封不动写出去
     * 目的: 测试计数器创建于使用
     */
    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        //1,创建自定义的计数器
        Counter mapperCounter = context.getCounter("MyGroup", "MyGroup_SelfDefinitedCounter_Mapper");
        //2, 对计数器进行累加计数: 这里的逻辑是执行一次map函数即计数一次
        mapperCounter.increment(1);
        context.write(key,value);
    }
}

Reducer类代码:

import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Counter;
import org.apache.hadoop.mapreduce.Reducer;

import java.io.IOException;

public class PartitionerReducer extends Reducer<LongWritable, Text, NullWritable,Text> {
    /**
     * Reducer的逻辑: 直接写出Map传递过来的数据
     *  目的: 测试计数器的使用
     */
    @Override
    protected void reduce(LongWritable key, Iterable<Text> values, Context context) throws IOException, InterruptedException {
        //1, 创建自定义的计数器
        Counter reducerCounter = context.getCounter("MyGroup", "MyGroup_SelfDefinitedCounter_Reducer");
        for (Text value : values) {
            //2, 对计数器进行累加: 计算逻辑 - 有一个value就计数1次
            reducerCounter.increment(1);
            context.write(NullWritable.get(),value);
        }
    }
}

Job启动代码:

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;

public class MainJob extends Configured implements Tool {
    @Override
    public int run(String[] args) throws Exception {
        Job job = Job.getInstance(super.getConf());
        //1, 设置keyvalue的输入处理类
        job.setInputFormatClass(TextInputFormat.class);
//        TextInputFormat.setInputPaths(job,new Path("D:\\Source\\data\\patition_in"));
        TextInputFormat.addInputPath(job,new Path("D:\\Source\\data\\patition_in"));
        //2.1, 设置Mapper类
        job.setMapperClass(PartitionMapper.class);

        //2.2 设置Mapper的输出数据类型
        job.setMapOutputKeyClass(LongWritable.class);
        job.setMapOutputValueClass(Text.class);

        //3设置分区, 4排序, 5规约, 6分组
        job.setPartitionerClass(MyPartitioner.class);
        //7, 设置Reducer类
        job.setReducerClass(PartitionerReducer.class);
        job.setNumReduceTasks(3);
        //8, 设置输出处理类
        job.setOutputFormatClass(TextOutputFormat.class);
        TextOutputFormat.setOutputPath(job,new Path("D:\\Source\\data\\patition_result"));
        job.setOutputKeyClass(NullWritable.class);
        job.setOutputValueClass(Text.class);

        //启动Job等待运行结束
        boolean completed = job.waitForCompletion(true);
        return completed?1:0;
    }

    public static void main(String[] args) {
        try {
            int result = ToolRunner.run(new Configuration(), new MainJob(), args);
            System.exit(result);
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

在这里插入图片描述

方式2: 通过enum枚举类型来定义计数器

代码示例: Mapper与MainJob与上面代码一样, 这里只修改了Reducer端的计数器作为与方式1的对比

import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Counter;
import org.apache.hadoop.mapreduce.Reducer;

import java.io.IOException;

public class PartitionerReducer extends Reducer<LongWritable, Text, NullWritable, Text> {
    //1, 通过枚举来定义计数器 ,
    public enum MyCounterGroup {
        //第一统计项, 可以有任意个, 这里用一个作为示例.
        MY_ENUM_COUNTER_REDUCER
    }

    /**
     * Reducer的逻辑: 直接写出Map传递过来的数据
     * 目的: 测试计数器的使用
     */
    @Override
    protected void reduce(LongWritable key, Iterable<Text> values, Context context) throws IOException, InterruptedException {
        //   Counter reducerCounter = context.getCounter("MyGroup", "MyGroup_SelfDefinitedCounter_Reducer");

        for (Text value : values) {
            //2, 对计数器进行累加: 计算逻辑 - 有一个value就计数1次
            //reducerCounter.increment(1);
            context.getCounter(MyCounterGroup.MY_ENUM_COUNTER_REDUCER).increment(1);
            context.write(NullWritable.get(), value);
        }
    }
}

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

能力工场小马哥

如果对您有帮助, 请打赏支持~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值