Reduce Join案例实操

Map端的主要工作:为来自不同表或文件的key/value对,打标签以区别不同来源的记录。然后用连接字段作为key,其余部分和新加的标志作为value,最后进行输出。

Reduce端的主要工作:在Reduce端以连接字段作为key的分组已经完成,我们只需要在每一个分组当中将那些来源于不同文件的记录(在Map阶段已经打标志)分开,最后进行合并就ok了。

代码实现

(1)创建商品和订单合并后的TableBean类

package com.mischen.mapreduce.wordcount.reduceJoin;

import org.apache.hadoop.io.Writable;

import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;

/**
 * @ClassName TableBean
 * @Description DOTO
 * @Author mischen
 * @Date 2021/5/22 0022 8:02
 * @Version 1.0
 **/
public class TableBean  implements Writable {

    private String id;//订单id
    private String pid;//产品id
    private int amount; //产品数量
    private String pname;//产品名称
    private String flag; //判断是order表还是pd表的标志字段

    public String getId() {
        return id;
    }

    public void setId(String id) {
        this.id = id;
    }

    public String getPid() {
        return pid;
    }

    public void setPid(String pid) {
        this.pid = pid;
    }

    public int getAmount() {
        return amount;
    }

    public void setAmount(int amount) {
        this.amount = amount;
    }

    public String getPname() {
        return pname;
    }

    public void setPname(String pname) {
        this.pname = pname;
    }

    public String getFlag() {
        return flag;
    }

    public void setFlag(String flag) {
        this.flag = flag;
    }
    //空参构造
    public TableBean() {
    }

    //序列化方法
    public void write(DataOutput dataOutput) throws IOException {
         dataOutput.writeUTF(id);
         dataOutput.writeUTF(pid);
         dataOutput.writeInt(amount);
         dataOutput.writeUTF(pname);
         dataOutput.writeUTF(flag);
    }
    //反序列化方法,反序列化方法必须与序列化方法一致
    public void readFields(DataInput dataInput) throws IOException {
        this.id=dataInput.readUTF();
        this.pid = dataInput.readUTF();
        this.amount = dataInput.readInt();
        this.pname = dataInput.readUTF();
        this.flag = dataInput.readUTF();
    }
    //重写tostring方法,只需要输出id pname amount
    @Override
    public String toString() {
        return id + "\t" + pname + "\t" + amount;
    }
}

 

(2)编写TableMapper类

package com.mischen.mapreduce.wordcount.reduceJoin;

import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.InputSplit;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.lib.input.FileSplit;

import java.io.IOException;

/**
 * @ClassName TableMapper
 * @Description DOTO
 * @Author mischen
 * @Date 2021/5/22 0022 8:26
 * @Version 1.0
 **/
public class TableMapper extends Mapper<LongWritable,Text,Text,TableBean> {

    private String filename;
    private Text outK = new Text();
    private TableBean outV = new TableBean();
    @Override
    protected void setup(Context context) throws IOException, InterruptedException {
        //获取对应文件名称
        InputSplit split = context.getInputSplit();
        FileSplit fileSplit = (FileSplit) split;
        filename = fileSplit.getPath().getName();
    }

    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        //获取一行
        String line = value.toString();
        //判断是哪个文件,然后针对文件进行不同的操作
        if(filename.contains("order")){  //订单表的处理
            String[] split = line.split("\t");
            //封装outK
            outK.set(split[1]);
            //封装outV
            outV.setId(split[0]);
            outV.setPid(split[1]);
            outV.setAmount(Integer.parseInt(split[2]));
            outV.setPname("");
            outV.setFlag("order");
        }else {                             //商品表的处理
            String[] split = line.split("\t");
            //封装outK
            outK.set(split[0]);
            //封装outV
            outV.setId("");
            outV.setPid(split[0]);
            outV.setAmount(0);
            outV.setPname(split[1]);
            outV.setFlag("pd");
        }
        //写出KV
        context.write(outK,outV);
    }
}

(3)编写TableReducer类

package com.mischen.mapreduce.wordcount.reduceJoin;

import org.apache.commons.beanutils.BeanUtils;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

import java.io.IOException;
import java.lang.reflect.InvocationTargetException;
import java.util.ArrayList;

/**
 * @ClassName TableReducer
 * @Description DOTO
 * @Author mischen
 * @Date 2021/5/22 0022 9:18
 * @Version 1.0
 **/
public class TableReducer extends Reducer<Text,TableBean,TableBean, NullWritable> {
    @Override
    protected void reduce(Text key, Iterable<TableBean> values, Context context) throws IOException, InterruptedException {
        ArrayList<TableBean> orderBeans = new ArrayList<>();
        TableBean pdBean = new TableBean();
        for (TableBean value : values) {
            //判断数据来自哪个表
            if("order".equals(value.getFlag())){   //订单表
                //创建一个临时TableBean对象接收value
                TableBean tmpOrderBean = new TableBean();
                try {
                    BeanUtils.copyProperties(tmpOrderBean,value);
                } catch (IllegalAccessException e) {
                    e.printStackTrace();
                } catch (InvocationTargetException e) {
                    e.printStackTrace();
                }
                //将临时TableBean对象添加到集合orderBeans
                orderBeans.add(tmpOrderBean);
            }else {                                    //商品表
                try {
                    BeanUtils.copyProperties(pdBean,value);
                } catch (IllegalAccessException e) {
                    e.printStackTrace();
                } catch (InvocationTargetException e) {
                    e.printStackTrace();
                }
            }
        }

        //遍历集合orderBeans,替换掉每个orderBean的pid为pname,然后写出
        for (TableBean orderBean : orderBeans) {
            orderBean.setPname(pdBean.getPname());
            //写出修改后的orderBean对象
            context.write(orderBean,NullWritable.get());
        }
    }
}

(4)编写TableDriver类

package com.mischen.mapreduce.wordcount.reduceJoin;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import java.io.IOException;

/**
 * @ClassName TableDriver
 * @Description DOTO
 * @Author mischen
 * @Date 2021/5/22 0022 9:23
 * @Version 1.0
 **/
public class TableDriver {
    public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
        Job job = Job.getInstance(new Configuration());
        job.setJarByClass(TableDriver.class);
        job.setMapperClass(TableMapper.class);
        job.setReducerClass(TableReducer.class);
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(TableBean.class);
        job.setOutputKeyClass(TableBean.class);
        job.setOutputValueClass(NullWritable.class);
        FileInputFormat.setInputPaths(job, new Path("E:\\input\\inputtable"));
        FileOutputFormat.setOutputPath(job, new Path("E:\\input\\output"));
        boolean b = job.waitForCompletion(true);
        System.exit(b ? 0 : 1);
    }
}

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: MapjoinReducejoin是两种用于在Hadoop MapReduce中进行数据连接的方法。 Mapjoin是将小表加载到内存中,在map阶段进行连接,不需要在reduce阶段进行连接。这种方法适用于小表和大表的连接。 Reducejoin则是在reduce阶段进行连接,适用于两个大表的连接。 ### 回答2: MapReduce是一种分布式计算模型,用于在大规模数据集上进行并行计算。在MapReduce模型中,Map和Reduce是两个重要的阶段,其中Map阶段将数据分片并进行预处理,Reduce阶段将Map阶段的输出结果进行合并,并最终输出计算结果。 在MapReduce中,MapJoinReduceJoin是两个比较常见的数据处理方式。MapJoin是指在Map阶段中使用数据缓存或索引的方法将两个或多个数据集进行连接操作。而ReduceJoin则是在Reduce阶段中将两个或多个数据集进行连接操作。 MapJoinReduceJoin的区别在于它们的适用场景和性能表现。MapJoin通常用于一对一或者多对一的数据连接操作,适用于大数据集和小数据集的快速连接。由于MapJoin在Map阶段中进行连接操作,因此可以利用数据缓存或索引的优势,避免在Reduce阶段中进行大量的数据读写操作,从而提高了数据处理的效率和性能。 而ReduceJoin则适用于大数据集和大数据集之间的连接操作。由于Reduce阶段中涉及到大量的数据读写操作,因此需要在集群中进行大量的数据传输和复制,这会造成大量的网络和IO开销,从而导致性能下降。同时,ReduceJoin还需要进行数据的排序和分组操作,这会对集群的计算能力和内存压力造成很大的负担。 因此,MapJoinReduceJoin需要根据实际的数据规模和连接需求进行选择,以最优的方式进行数据处理和计算。在实际的MapReduce应用中,可以根据不同的业务特点和数据分布情况,选择适合自己的连接方式,以提高数据处理的效率和性能。 ### 回答3: MapJoinReduceJoin是Hadoop中两种常见的连接机制。MapJoin通常用于小数据集之间的连接,而ReduceJoin则适用于大数据集之间的连接。下面具体说明两者的区别: 1. MapJoin MapJoin是通过将两个表的数据都读入内存中,在Map端将这些数据进行连接,然后返回给Reduce端。在MapJoin中,一个表的数据作为Map输入,另一个表则存储在内存中作为Hash表,Map会对所有的数据进行扫描和匹配,最后将结果输出到Reduce端。由于MapJoin需要将所有数据全放在内存中,因此常用于小数据量的表之间的连接关系。 2. ReduceJoin ReduceJoin则是将两个表的数据集分别发送到Map端,Map端会对这两个数据集进行排序,然后对相同的Key进行匹配和连接,最后将结果返回给Reduce端。在ReduceJoin中,两个输入的数据集会被排序,相同的Key会被发送到同一个Reducer中进行操作,并将结果输出到Reduce端。ReduceJoin常用于大数据集之间的连接关系,因为它可以避免内存溢出的问题,但是需要进行排序和数据再次传输等过程,因此效率相对MapJoin会低一些。 综上所述,MapJoinReduceJoin都是链接两个数据集的机制,但是它们有着不同的使用场景。MapJoin适用于小数据集之间的连接,能够提供高效的连接性能;而ReduceJoin则适用于大数据集之间的连接,能够避免内存不足的问题,但是需要付出排序和数据传输等成本。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值