Hadoop学习:Combiner

转载至点击打开链接

在本节中,我们着重学习MapReduce编程模型中的Combiner组件。
        每一个map都可能会产生大量的本地输出,Combiner的作用就是对map端的输出先做一次合并,以减少在map和reduce节点之间的数据传输量,以提高网络IO性能,是MapReduce的一种优化手段之一。
        1)、Combiner最基本是实现本地key的聚合,对map输出的key排序、value进行迭代。如下所示:

引用

         map:(key1,value1) ——> list(key2,value2)
        combine:(key2,list(value2)) ——> list(key2,value2)
        reduce:(key2,list(value2)) ——> list(key3,value3)

       


        2)、Combiner还有本地reduce功能(其本质上就是一个reduce):

引用

         map:(key1,value1) ——> list(key2,value2)
        conbine:(key2,list(value2)) ——> list(key3,value3)
        reduce:(key3,list(value3)) ——> list(key4,value4)

       


        3)、如果不用Combiner,南无说有的结果都会在reduce端完成,效率比较低小,并且会占用很多的网络IO;使用Combiner先完成在map端的本地聚合,可以减少网络传输数据量,提高性能。

        但是,不要以为在写MapReduce程序时设置了Combiner就认为Combiner一定会起作用,实际情况是这样的吗?答案是否定的。hadoop文档中也有说明Combiner可能被执行也可能不被执行。那么在什么情况下不执行呢?如果当前集群在很繁忙的情况下job就是设置了也不会执行Combiner。

        另外还要注意,Combiner使用的合适的话会提高Job作业的执行数度,但是使用不合适的话,会导致输出的结果不正确。Combiner的输出是Reduce的输入,它绝不会改变最终的计算结果。
        Conbiner的适用场景比如说在汇总统计时,就可以使用Conbiner,但是在求平均数的时候就是适合适用了。

        最后,我们再来看一下Combiner的执行时机。我们之前已对map端的shuffle做过比较升入的了解,详情请看MapTask详解。那么,Combiner会在map端的那个时期执行呢?实际上,Conbiner函数的执行时机可能会在map的merge操作完成之前,也可能在merge之后执行,这个时机由配置参数min.num.spill.for.combine(该值默认为3),也就是说在map端产生的spill文件最少有min.num.spill.for.combine的时候,Combiner函数会在merge操作合并最终的本机结果文件之前执行,否则在merge之后执行。通过这种方式,就可以在spill文件很多并且需要做combine的时候,减少写入本地磁盘的数据量,同样也减少了对磁盘的读写频率,可以起到优化作业的目的。

转载至点击打开链接

一、Combiner的出现背景

1.1 回顾Map阶段五大步凑

在第四篇博文《初识MapReduce》中,我们认识了MapReduce的八大步凑,其中在Map阶段总共五个步凑,如下图所示:


其中,step1.5是一个可选步凑,它就是我们今天需要了解的 Map规约 阶段。现在,我们再来看看前一篇博文《计数器与自定义计数器》中的第一张关于计数器的图:


我们可以发现,其中有两个计数器: Combine output records 和 Combine input records ,他们的计数都是0,这是因为我们在代码中没有进行Map阶段的规约操作。

1.2 为什么需要进行Map规约操作

众所周知,Hadoop框架使用Mapper将数据处理成一个个的<key,value>键值对,在网络节点间对其进行整理(shuffle),然后使用Reducer处理数据并进行最终输出。


在上述过程中,我们看到至少两个 性能瓶颈 :

(1)如果我们有10亿个数据,Mapper会生成10亿个键值对在网络间进行传输,但如果我们只是对数据求最大值,那么很明显的Mapper只需要输出它所知道的最大值即可。这样做不仅可以减轻网络压力,同样也可以大幅度提高程序效率。

总结: 网络带宽严重被占降低程序效率;

(2)假设使用美国专利数据集中的国家一项来阐述 数据倾斜 这 个定义,这样的数据远远不是一致性的或者说平衡分布的,由于大多数专利的国家都属于美国,这样不仅Mapper中的键值对、中间阶段(shuffle)的 键值对等,大多数的键值对最终会聚集于一个单一的Reducer之上,压倒这个Reducer,从而大大降低程序的性能。

总结: 单一节点承载过重降低程序性能;

那么,有木有一种方案能够解决这两个问题呢?

二、初步探索Combiner

2.1 Combiner的横空出世

在MapReduce编程模型中,在Mapper和Reducer之间有一个非常重要的组件,它解决了上述的性能瓶颈问题,它就是 Combiner 。

PS:

①与mapper和reducer不同的是,combiner没有默认的实现,需要显式的设置在conf中才有作用。

②并不是所有的job都适用combiner,只有操作满足结合律的才可设置combiner。combine操作类似于:opt(opt(1, 2, 3), opt(4, 5, 6))。如果opt为求和、求最大值的话,可以使用,但是如果是求中值的话,不适用。

每一个map都可能会产生大量的 本地输出 , Combiner 的作用就是对map端的输出先做一次合并 ,以 减少在map和reduce节点之间的数据传输量 ,以 提高网络IO性能 ,是MapReduce的一种 优化手段之一 ,其具体的作用如下所述。

(1)Combiner最基本是实现 本地key的聚合,对map输出的key排序,value进行迭代 。如下所示:

map: (K1, V1) → list(K2, V2) 

combine: (K2, list(V2)) → list(K2, V2) 

reduce: (K2, list(V2)) → list(K3, V3)

(2)Combiner还有 本地reduce 功能(其本质上就是一个reduce),例如Hadoop自带的wordcount的例子和找出value的最大值的程序,combiner和reduce完全一致,如下所示:

map: (K1, V1) → list(K2, V2) 

combine: (K2, list(V2)) → list(K3, V3) 

reduce: (K3, list(V3)) → list(K4, V4)

PS: 现在想想,如果在wordcount中不用combiner,那么所有的结果都是 reduce完成,效率会相对低下。使用combiner之后,先完成的map会在本地聚合,提升速度。对于hadoop自带的wordcount的例 子,value就是一个叠加的数字,所以map一结束就可以进行reduce的value叠加,而不必要等到所有的map结束再去进行reduce的 value叠加。

2.2 融合Combiner的MapReduce


前面文章中的代码都忽略了一个可以优化MapReduce作业所使用带宽的步骤—Combiner ,它在 Mapper之后Reducer之前 运 行。Combiner是可选的,如果这个过程适合于你的作业,Combiner实例会在每一个运行map任务的节点上运行。Combiner会接收特定节 点上的Mapper实例的输出作为输入,接着Combiner的输出会被发送到Reducer那里,而不是发送Mapper的输出。Combiner是一 个 “迷你reduce” 过程,它只处理 单台机器 生成的数据 

2.3 使用MyReducer作为Combiner

在前面文章中的WordCount代码中加入以下一句简单的代码,即可加入Combiner方法:

// 设置Map规约Combiner
    job.setCombinerClass(MyReducer.class);

还是以下面的文件内容为例,看看这次计数器会发生怎样的改变?

(1)上传的测试文件的内容

hello edison
hello kevin

(2)调试后的计数器日志信息


可以看到,原本都为0的Combine input records和Combine output records发生了改变。我们可以清楚地看到map的输出和combine的输入统计是一致的,而combine的输出与reduce的输入统计是一样 的。由此可以看出规约操作成功,而且执行在map的最后,reduce之前。

三、自己定义Combiner

为了能够更加清晰的理解Combiner的工作原理,我们自定义一个Combiners类,不再使用MyReduce做为Combiners的类,具体的代码下面一一道来。

3.1 改写Mapper类的map方法


  public static class MyMapper extends
  Mapper<LongWritable, Text, Text, LongWritable> {
    protected void map(LongWritable key, Text value,
      Mapper<LongWritable, Text, Text, LongWritable>.Context context)
      throws java.io.IOException, InterruptedException {
  String line = value.toString();
  String[] spilted = line.split(" ");
  for (String word : spilted) {
      context.write(new Text(word), new LongWritable(1L));
      // 为了显示效果而输出Mapper的输出键值对信息
      System.out.println("Mapper输出<" + word + "," + 1 + ">");
  }
    };
}

3.2 改写Reducer类的reduce方法


public static class MyReducer extends
  Reducer<Text, LongWritable, Text, LongWritable> {
    protected void reduce(Text key,
      java.lang.Iterable<LongWritable> values,
      Reducer<Text, LongWritable, Text, LongWritable>.Context context)
      throws java.io.IOException, InterruptedException {
  // 显示次数表示redcue函数被调用了多少次,表示k2有多少个分组
  System.out.println("Reducer输入分组<" + key.toString() + ",N(N>=1)>");
  long count = 0L;
  for (LongWritable value : values) {
      count += value.get();
      // 显示次数表示输入的k2,v2的键值对数量
      System.out.println("Reducer输入键值对<" + key.toString() + ","
        + value.get() + ">");
  }
  context.write(key, new LongWritable(count));
    };
}

3.3 添加MyCombiner类并重写reduce方法


public static class MyCombiner extends
  Reducer<Text, LongWritable, Text, LongWritable> {
    protected void reduce(
      Text key,
      java.lang.Iterable<LongWritable> values,
      org.apache.hadoop.mapreduce.Reducer<Text, LongWritable, Text, LongWritable>.Context context)
      throws java.io.IOException, InterruptedException {
  // 显示次数表示规约函数被调用了多少次,表示k2有多少个分组
  System.out.println("Combiner输入分组<" + key.toString() + ",N(N>=1)>");
  long count = 0L;
  for (LongWritable value : values) {
      count += value.get();
      // 显示次数表示输入的k2,v2的键值对数量
      System.out.println("Combiner输入键值对<" + key.toString() + ","
        + value.get() + ">");
  }
  context.write(key, new LongWritable(count));
  // 显示次数表示输出的k2,v2的键值对数量
  System.out.println("Combiner输出键值对<" + key.toString() + "," + count
    + ">");
    };
}

3.4 添加设置Combiner的代码

// 设置Map规约Combiner
    job.setCombinerClass(MyCombiner.class);

3.5 调试运行的控制台输出信息

(1)Mapper

Mapper输出<hello,1>
Mapper输出<edison,1>
Mapper输出<hello,1>
Mapper输出<kevin,1>

(2)Combiner


Combiner输入分组<edison,N(N>=1)>
Combiner输入键值对<edison,1>
Combiner输出键值对<edison,1>
Combiner输入分组<hello,N(N>=1)>
Combiner输入键值对<hello,1>
Combiner输入键值对<hello,1>
Combiner输出键值对<hello,2>
Combiner输入分组<kevin,N(N>=1)>
Combiner输入键值对<kevin,1>
Combiner输出键值对<kevin,1>

这里可以看出,在Combiner中进行了一次本地的Reduce操作,从而简化了远程Reduce节点的归并压力。

(3)Reducer

Reducer输入分组<edison,N(N>=1)>
Reducer输入键值对<edison,1>
Reducer输入分组<hello,N(N>=1)>
Reducer输入键值对<hello,2>
Reducer输入分组<kevin,N(N>=1)>
Reducer输入键值对<kevin,1>

这里可以看出,在对hello的归并上,只进行了一次操作就完成了。

那么,如果我们再来看看不添加Combiner时的控制台输出信息:

(1)Mapper

Mapper输出<hello,1>
Mapper输出<edison,1>
Mapper输出<hello,1>
Mapper输出<kevin,1>

(2)Reducer


Reducer输入分组<edison,N(N>=1)>
Reducer输入键值对<edison,1>
Reducer输入分组<hello,N(N>=1)>
Reducer输入键值对<hello,1>
Reducer输入键值对<hello,1>
Reducer输入分组<kevin,N(N>=1)>
Reducer输入键值对<kevin,1>

可以看出,没有采用Combiner时hello都是由Reducer节点来进行统一的归并,也就是这里为何会有两次hello的输入键值对了。

总结:从控制台的输出信息我们可以发现,其实combine只是把两个相同的hello进行规约,由此输入给 reduce的就变成了<hello,2>。在实际的Hadoop集群操作中,我们是由多台主机一起进行MapReduce的,如果加入规约 操作,每一台主机会在reduce之前进行一次对 本机数据 的规约,然后在通过集群进行reduce操作,这样就会大大节省reduce的时间,从而加快MapReduce的处理速度。

参考资料

(1)万川梅、谢正兰,《Hadoop应用开发实战详解(修订版)》:http://item.jd.com/11508248.html

(2)Suddenly,《Hadoop日记Day17-计数器、map规约与分区学习》:http://www.cnblogs.com/sunddenly/p/4009568.html

(3)guoery,《MapReduce中Combiner的使用及误区》:http://blog.csdn.net/guoery/article/details/8529004

(4)iPolaris,《Hadoop中Combiner的使用》:http://blog.csdn.net/ipolaris/article/details/8723782


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值