MR自定义分组的使用

该博客介绍了在MapReduce中如何利用自定义分组和排序来解决实际问题,如找出每个订单中最贵的商品。通过创建自定义的OrderBean类实现WritableComparable接口,以及自定义分组比较器GroupComparator,确保按照订单ID进行分组,然后在Reducer中处理每组的最高价格商品。整个流程包括Mapper、Reducer的实现以及Driver配置。
摘要由CSDN通过智能技术生成

为什么要使用自定义分组?

MR在Reduce阶段,调用reduce()方法之前,会对接收到的数据进行分组。默认会调用key所属类的默认分组比较器进行分组,分组比较器默认又调用了排序比较器。如果我们按照默认的比较器进行分组,会导致分组规则和排序规则一致。

什么场景适合使用分组?

  • topN

需求:有如下订单数据,现在求出每一个订单最贵的商品
在这里插入图片描述
首先我们分析:分组必先经过排序,我们可以自定义排序,按照订单id升序(或降序)价格降序排列。
如果我们不自定义分组比较器,那么就会同样的使用订单id和价格进行分组,只有订单id和价格相同的才会分到同一组,那这样我们的reduce端处理的数据没有意义。
所以我们自定义分组比较器,指定按照订单id进行分组。相同订单id的分到同一组,reduce即可直接找到每一组中价格最高的商品。

代码实现:

1.创建OrderBean,实现WritableComparable接口。

package com.aura.hadoop.group;

import org.apache.hadoop.io.WritableComparable;

import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;

/**
 * @author panghu
 * @description
 * @create 2021-02-15-21:05
 */
public class OrderBean implements WritableComparable<OrderBean> {
    private String orderId;
    private String pdtId;
    private double price;

    @Override
    public String toString() {
        return orderId + "\t" + pdtId + "\t" + price;
    }

    public String getOrderId() {
        return orderId;
    }

    public void setOrderId(String orderId) {
        this.orderId = orderId;
    }

    public String getPdtId() {
        return pdtId;
    }

    public void setPdtId(String pdtId) {
        this.pdtId = pdtId;
    }

    public double getPrice() {
        return price;
    }

    public void setPrice(double price) {
        this.price = price;
    }

    @Override
    public void write(DataOutput dataOutput) throws IOException {
        dataOutput.writeUTF(orderId);
        dataOutput.writeUTF(pdtId);
        dataOutput.writeDouble(price);
    }

    @Override
    public void readFields(DataInput dataInput) throws IOException {
        this.orderId = dataInput.readUTF();
        this.pdtId = dataInput.readUTF();
        this.price = dataInput.readDouble();
    }

    /**
     * 分组过程会调用分组比较器,分组比较器默认会调用默认的分类比较器
     * 需求:求出每一个订单中最贵的商品
     * 排序逻辑:先按照订单id排序,如果订单id相同,再按照价格降序
     *
     * @param o
     * @return
     */
    @Override
    public int compareTo(OrderBean o) {
        int compare = this.getOrderId().compareTo(o.getOrderId());
        if (compare == 0) {
            return Double.compare(o.getPrice(),this.getPrice());
        } else {
            return compare;
        }
    }
}

2.自定义分组比较器,继承WritableComparator 类。

package com.aura.hadoop.group;

import org.apache.hadoop.io.WritableComparable;
import org.apache.hadoop.io.WritableComparator;

/**
 * @author panghu
 * @description
 * @create 2021-02-15-21:27
 */
public class GroupComparator extends WritableComparator {
    // 构造器,初始化要比较的类型
    protected GroupComparator() {
        super(OrderBean.class,true);
    }

    /**
     * 分组,订单号相同的一组
     * 把订单号相同的k-v聚合成组
     * @param a
     * @param b
     * @return
     */
    @Override
    public int compare(WritableComparable a, WritableComparable b) {
        OrderBean order1 = (OrderBean) a;
        OrderBean order2 = (OrderBean) b;
        return order1.getOrderId().compareTo(order2.getOrderId());
    }


}

3.创建Mapper类。

package com.aura.hadoop.group;

import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

import java.io.IOException;

/**
 * @author panghu
 * @description
 * @create 2021-02-15-21:39
 */
public class GroupMappper extends Mapper<LongWritable, Text, OrderBean, NullWritable> {
    private OrderBean order = new OrderBean();
    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        // 0000001	Pdt_01	222.8
        String[] split = value.toString().split("\t");
        order.setOrderId(split[0]);
        order.setPdtId(split[1]);
        order.setPrice(Double.parseDouble(split[2]));
        context.write(order,NullWritable.get());
    }
}

4.创建Reducer类。

package com.aura.hadoop.group;

import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.mapreduce.Reducer;

import java.io.IOException;
import java.util.Iterator;

/**
 * @author panghu
 * @description
 * @create 2021-02-15-21:44
 */
public class GroupReducer extends Reducer<OrderBean,NullWritable,OrderBean,NullWritable> {
    // 每一组调用一次
    @Override
    protected void reduce(OrderBean key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException {
        // 直接写出就只写出每一组的排序第一的数据
        context.write(key,NullWritable.get());
        // 下面的代码可以写出每一组排序前2的数据
//        Iterator<NullWritable> iterator = values.iterator();
//        for (int i = 0; i < 2; i++) {
//            if (iterator.hasNext()) {
//                context.write(key,iterator.next());
//            }
//        }
    }
}

5.创建Driver类,并指定分组比较器。

package com.aura.hadoop.group;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import java.io.IOException;

/**
 * @author panghu
 * @description
 * @create 2021-02-15-21:47
 */
public class GroupDriver {
    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
        Job job = Job.getInstance(new Configuration());

        job.setJarByClass(GroupDriver.class);

        job.setMapperClass(GroupMappper.class);
        job.setReducerClass(GroupReducer.class);
        // 指定分组比较器
        job.setGroupingComparatorClass(GroupComparator.class);

        job.setMapOutputKeyClass(OrderBean.class);
        job.setMapOutputValueClass(NullWritable.class);

        job.setOutputKeyClass(OrderBean.class);
        job.setOutputValueClass(NullWritable.class);

        FileInputFormat.setInputPaths(job,new Path("D:\\data\\hadoopdata\\自定义分组"));
        FileOutputFormat.setOutputPath(job,new Path("D:\\data\\out\\group_out"));


        boolean b = job.waitForCompletion(true);
        System.exit(b ? 0 : 1);

    }
}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值