MapReduce的Join解析(Java代码实现map-join)

0- 引言

  • 在hadoop的mapreduce中,数据通过map拉取并打标签,之后通过shuffle过程到reduce端关联得到结果的join称为reduce-join。
  • 只在map端关联得到结果的join称为map-join。

1- Reduce Join(会出现数据倾斜)

通过将关联条件作为Map输出的key,将两表满足Join条件的数据并携带数据所来源的文件信息,发往同一个ReduceTask,在Reduce中进行数据的串联

举个例子:

需求:将商品信息表中数据根据商品pid合并到订单数据表中

订单数据:
在这里插入图片描述
商品信息:
在这里插入图片描述
合并后的结果:
在这里插入图片描述

中间的mapreduce过程简化如下图所示:
在这里插入图片描述
为什么reduce-join慢? 总结为一句话就是经历了mapreduce的shuffle过程,shuffle过程的详细讲解我会单独写一篇文章详细介绍。

2- Map Join

Map Join适用于一张表十分小、一张表很大的场景。

在Map端缓存多张表,提前处理业务逻辑,这样增加Map端业务,减少Reduce端数据的压力,尽可能的减少数据倾斜。

采用DistributedCache

  • (1)在Mapper的setup阶段,将文件读取到缓存集合中。

  • (2)在驱动函数中加载缓存。

在hivesql中实现mapjoin:

  1. 开启set hive.auto.convert.join = true参数
  2. hive0.7版本之前要在sql中加上/* + mapjoin(小表) */,0.7版本之后默认开启mapjoin。

在odps中实现mapjoin:

  • MAPJION会把小表全部读入内存中,把小表拷贝多份分发到大表数据所在实例上的内存里,在map阶段直接拿另外一个表的数据和内存中表数据做匹配,由于在map是进行了join操作,省去了reduce运行的效率会高很多。
  • 使用的条件就是当一个大表和一个或多个小表做join时。SQL会将用户指定的小表全部加载到执行join操作的程序的内存中,从而加快join的执行速度。需要注意,在Maxcompute使用mapjoin时:
    left outer join的左表必须是大表;
    right outer join的右表必须是大表;
    inner join左表或右表均可以作为大表;
    full outer join不能使用mapjoin;
    mapjoin支持小表为子查询;
  • 使用mapjoin时需要引用小表或是子查询时,需要引用别名;
    在mapjoin中,可以使用不等值连接或者使用or连接多个条件;
    目前MaxCompute 在mapjoin中最多支持指定8张小表,否则报语法错误;
    如果使用mapjoin,则所有小表占用的内存总和不得超过512MB。请注意由于MaxCompute 是压缩存储,因此小表在被加载到内存后,数据大小会急剧膨胀。此处的512MB限制是加载到内存后的空间大小;
  • 多个表join时,最左边的两个表不能同时是mapjoin的表。
  • 那么为什么说left outer join的左表必须是大表呢,
    因为左表是大表的时候,会拿小表的全部数据和大表所在的实例服务器中的数据匹配一遍,刚好小表就在内存里。如果是左表是小表,那么需要把大表所有的数据拉过来跟小表匹配一遍,试想一下性能会如何。

来看下写法:

select /* + mapjoin(b) */  a.* from train_user_lt a left outer join map_join_test b on a.user_id = b.user_id;
//就是在sql语句前加一个标记说这是mapjoin,把小表别名写在括号里

java实现map-join主要代码如下:

//添加缓存数据
job.addCacheFile(new URI("/mapreduce/join/pd"));
job.setNumReduceTasks(0);
public class DistributedCacheMapper extends Mapper<LongWritable, Text,OrderWrapper, NullWritable>{

   Map<String,String> map=new HashedMap<>();
   private BufferedReader bufferedReader;
   private String[] splits;
   @Override
   protected void setup(Context context)
         throws IOException, InterruptedException {
      //获取缓存的文件
      URI[] cacheFiles = context.getCacheFiles();
      String path = cacheFiles[0].getPath().toString();
      FileSystem fileSystem = FileSystem.get(context.getConfiguration());
      FSDataInputStream hdfsInStream = fileSystem.open(new Path(path));
      bufferedReader = new BufferedReader(new InputStreamReader(hdfsInStream, "UTF-8"));
      String line;
      while(StringUtils.isNotEmpty(line = bufferedReader.readLine())) {
         // 2 切割
         String[] fields = line.split("\t");
         // 3 缓存数据到集合
         map.put(fields[0], fields[1]);
      }
      //关闭流
      bufferedReader.close();
   }
   
   @Override
   protected void map(LongWritable key, Text value,
         Context context)
         throws IOException, InterruptedException {
      FileSplit fileSplit = (FileSplit) context.getInputSplit();
      String fileName = fileSplit.getPath().getName();
      if(!"pd".equals(fileName)){
         String line = value.toString();
         if(StringUtils.isNotEmpty(line)){
            String[] splits = line.split("\t");
            OrderWrapper wrapper=new OrderWrapper();
            wrapper.setId(splits[0]);
            wrapper.setPid(splits[1]);
            wrapper.setAmount(Integer.valueOf(splits[2]));
            wrapper.setPname(map.get(splits[1]));
            wrapper.setFlag("");
            context.write(wrapper, NullWritable.get());
         }
      }
   }
}
public static void main(String[] args) throws Exception {
   System.setProperty("HADOOP_USER_NAME", "root");
   Configuration configuration=new Configuration();
   Job job = Job.getInstance(configuration);
   job.setMapperClass(DistributedCacheMapper.class);
   job.setMapOutputKeyClass(OrderWrapper.class);
   job.setMapOutputValueClass(NullWritable.class);
   
   //添加缓存数据
   job.addCacheFile(new URI("/mapreduce/join/pd"));
   //Map端Join的逻辑不需要Reduce阶段,设置reduceTask数量为0
   job.setNumReduceTasks(0);
   
   FileInputFormat.setInputPaths(job, new Path("/mapreduce/join/order"));
   FileOutputFormat.setOutputPath(job, new Path("/mapreduce/join/output"));
   boolean waitForCompletion = job.waitForCompletion(true);
    System.exit(waitForCompletion==true?0:1);
}

都看到这里了,就请点个赞吧? 我代表(加内特,科比,詹姆斯,库里)谢谢你呀! 😊

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MapReduce实现join操作通常有两种方式:Reduce-side join和Map-side join。 1. Reduce-side join: Reduce-side join是最常用的实现方式。它的基本思想是将两个需要join的表分别映射为(key, value)的形式,其中key为需要join的字段,value则包含该字段以及其他需要输出的字段。然后将两个表的数据都输入到Map函数中,在Map函数中对两个表的数据进行标记,并将需要join的字段作为输出的key。在Reduce函数中,对相同的key进行合并,得到最终的输出结果。 下面是一个示例的Reduce-side join实现: Map函数: ``` public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString(); String[] fields = line.split(","); String joinKey = fields[0]; String table = fields[1]; // 表名 String data = fields[2]; // 数据 Text outputKey = new Text(joinKey); Text outputValue = new Text(table + ":" + data); context.write(outputKey, outputValue); } ``` Reduce函数: ``` public void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException { List<String> table1Data = new ArrayList<String>(); List<String> table2Data = new ArrayList<String>(); for (Text value : values) { String[] fields = value.toString().split(":"); if (fields[0].equals("table1")) { table1Data.add(fields[1]); } else if (fields[0].equals("table2")) { table2Data.add(fields[1]); } } for (String data1 : table1Data) { for (String data2 : table2Data) { context.write(key, new Text(data1 + "," + data2)); } } } ``` 2. Map-side join: Map-side join是一种更加高效的实现方式,它的基本思想是将一个表的数据缓存到内存中,然后在Map函数中将另一个表的数据与缓存的数据进行join。需要注意的是,Map-side join只适用于小表与大表之间的join操作,因为需要将小表的数据全部缓存到内存中。 下面是一个示例的Map-side join实现: Map函数: ``` public void setup(Context context) throws IOException, InterruptedException { // 读取小表的数据并缓存到内存中 BufferedReader br = new BufferedReader(new FileReader("table1.csv")); String line; while ((line = br.readLine()) != null) { String[] fields = line.split(","); String joinKey = fields[0]; String data = fields[1] + "," + fields[2]; table1Data.put(joinKey, data); } br.close(); } public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString(); String[] fields = line.split(","); String joinKey = fields[0]; String data = fields[1] + "," + fields[2]; if (table1Data.containsKey(joinKey)) { String table1Data = table1Data.get(joinKey); context.write(new Text(joinKey), new Text(table1Data + "," + data)); } } ``` 需要注意的是,Map-side join需要提前将小表的数据缓存到内存中,因此需要在Map函数之前执行setup函数。同时,为了提高效率,通常使用HashMap等数据结构来缓存小表的数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值