Hadoop的combiner学习与自定义combiner

Combiner的概念

Combiner号称本地的Reduce,Reduce的输入是Combiner的最终输出。

在MapReduce中,当map生成的数据过大时,带宽就成了瓶颈,怎样精简压缩传给Reduce的数据,有不影响最终的结果呢。有一种方法就是使用Combiner,Combiner号称本地的Reduce。Combiner是用reducer来定义的,多数的情况下Combiner和reduce处理的是同一种逻辑,所以job.setCombinerClass()的参数可以直接使用定义的reduce,当然也可以单独去定义一个有别于reduce的Combiner,继承Reducer,写法基本上定义reduce一样。

combiner的价值定位:

众所周知,Hadoop框架使用Mapper将数据块处理成一个个的<key,value>键值对,在网络节点间对其进行洗牌整理(shuffle),然后使用Reducer处理计算结果数据并进行最终结果输出。

  在上述过程中,我们看到至少两个性能瓶颈:

  (1)如果我们有10亿个数据,Mapper会生成10亿个键值对在网络间进行传输,但如果我们只是计算数据求最大值,那么很明显的Mapper只需要输出它所知道的最大值即可。准确的说是知道每个数据块中的最大值即可(不拉取其他数据到Reducer),减小计算的基数,不仅可以减轻网络压力,同时大幅度提高程序效率。

  总结:网络带宽严重被占降低程序效率;

  (2)假设使用美国专利数据集中的国家一项来阐述数据倾斜这个定义,这样的数据远远不是一致性的或者说平衡分布的,这样不仅Mapper中的键值对、中间阶段(shuffle)的键值对等,大多数的键值对最终会聚集于一个单一的Reducer之上,压倒这个Reducer,从而大大降低程序计算的性能。

  总结:单一节点承载过重降低程序性能;

Combiner的价值就由这两个问题体现的淋漓尽致。

Combiner详解:

 在MapReduce编程模型中,在Mapper和Reducer之间有一个非常重要的组件,它解决了上述的性能瓶颈问题,它就是Combiner。

注意:

①与mapper和reducer不同的是,combiner没有默认的实现,需要显式的设置在conf中才有作用。

②并不是所有的job都适用combiner,只有操作满足结合律的才可设置combiner。combine操作类似于:opt(opt(1, 2, 3), opt(4, 5, 6))。如果opt为求和、求最大值的话,可以使用,但是如果是求中值的话,不适用。

  每一个map都可能会产生大量的本地输出,Combiner的作用就是对map端的输出先做一次合并,以减少在map和reduce节点之间的数据传输量,以提高网络IO性能,是MapReduce的一种优化手段之一,其具体的作用如下所述。

  (1)Combiner最基本是实现本地key的聚合,对map输出的key排序,value进行迭代。如下所示:

  map: (K1, V1) → list(K2, V2) 
  combiner: (K2, list(V2)) → list(K2, V2) 
  reduce: (K2, list(V2)) → list(K3, V3)

  (2)Combiner还有本地reduce功能(其本质上就是一个reduce),例如Hadoop自带的wordcount的例子和找出value的最大值的程序,combiner和reduce完全一致,如下所示:

  map: (K1, V1) → list(K2, V2) 
  combine: (K2, list(V2)) → list(K3, V3) 
  reduce: (K3, list(V3)) → list(K4, V4)

PS:回想一下,如果在wordcount中没有Combiner来做先锋,数据量上千万的话Reduce的效率一定会低到难以想象。使用combiner之后,先完成的map会在本地聚合,为Reduce的计算做好第一次的数据聚合,提升计算效率。这样,对于hadoop自带的wordcount的例子,value就是一个叠加的数字,所以map一结束就可以进行reduce的value叠加,而不必要等到所有的map结束再去进行reduce的value叠加。

加入Combiner的MapReduce

  前面文章中的代码都忽略了一个可以优化MapReduce作业所使用带宽的步骤—Combiner,它在Mapper之后Reducer之前运行。Combiner是可选的,如果这个过程适合于你的作业,Combiner实例会在每一个运行map任务的节点上运行。Combiner会接收特定节点上的Mapper实例的输出作为输入,接着Combiner的输出会被发送到Reducer那里,而不是发送Mapper的输出。Combiner是一个“迷你reduce”过程,它只处理单台机器生成的数据。

举个小栗子

我们抓取去年每个季度最高温度的数据:

第一个mapper数据(2017,[34,25])

第二个mapper数据(2017,[33,32])

如果不考虑使用Combiner的计算过程的话Reducer如下:

(2017,[34,25,33,32])//通过排序后得到最大值

如果考虑Combiner的计算过程Reducer拿到的就是精简压缩并处理之后的数据集了:

(2017,[34])

(2017,[33])

这两种方法的结果是一定相同的,使用Combiner最大的好处是节省网络传输的数据,这对于提高整体的计算效率是非常有帮助的。当然好的方法当然是要有对口的问题做依靠,若是在不对的地方使用combiner,很有可能会适得其反,eg:求一组数据的平均值。(反例就不列举了,若有需要可以私信或留言)

使用MyReducer作为Combiner

  在前面文章中的WordCount代码中加入以下一句简单的代码,即可加入Combiner方法:

  // 设置Map规约Combiner
    job.setCombinerClass(MyReducer.class);

自定义的 Combiner

为了能够更加清晰的理解Combiner的工作原理,我们自定义一个Combiners类,不再使用MyReduce做为Combiners的类,具体的代码下面一一道来。

改写Mapper类的map方法

 public static class MyMapper extends
            Mapper<LongWritable, Text, Text, LongWritable> {
        protected void map(LongWritable key, Text value,
                Mapper<LongWritable, Text, Text, LongWritable>.Context context)
                throws java.io.IOException, InterruptedException {
            String line = value.toString();
            String[] spilted = line.split("\\s");
            for (String word : spilted) {
                context.write(new Text(word), new LongWritable(1L));
                // 为了显示效果而输出Mapper的输出键值对信息
                System.out.println("Mapper输出<" + word + "," + 1 + ">");
            }
        };
    }

改写Reducer类的reduce方法添加MyCombiner类并重写reduce方法

public static class MyCombiner extends
            Reducer<Text, LongWritable, Text, LongWritable> {
        protected void reduce(
                Text key,
                java.lang.Iterable<LongWritable> values,
                org.apache.hadoop.mapreduce.Reducer<Text, LongWritable, Text, LongWritable>.Context context)
                throws java.io.IOException, InterruptedException {
            // 显示次数表示Combiner执行了多少次,表示k2有多少个分组
            System.out.println("Combiner输入分组<" + key.toString() + ",N(N>=1)>");
            long count = 0L;
            for (LongWritable value : values) {
                count += value.get();
                // 显示次数表示输入的k2,v2的键值对数量
                System.out.println("Combiner输入键值对<" + key.toString() + ","
                        + value.get() + ">");
            }
            context.write(key, new LongWritable(count));
            // 显示次数表示输出的k2,v2的键值对数量
            System.out.println("Combiner输出键值对<" + key.toString() + "," + count
                    + ">");
        };
    }

添加MyCombiner类并重写reduce方法

public static class MyCombiner extends
            Reducer<Text, LongWritable, Text, LongWritable> {
        protected void reduce(
                Text key,
                java.lang.Iterable<LongWritable> values,
                org.apache.hadoop.mapreduce.Reducer<Text, LongWritable, Text, LongWritable>.Context context)
                throws java.io.IOException, InterruptedException {
            // 显示次数表示规约函数被调用了多少次,表示k2有多少个分组
            System.out.println("Combiner输入分组<" + key.toString() + ",N(N>=1)>");
            long count = 0L;
            for (LongWritable value : values) {
                count += value.get();
                // 显示次数表示输入的k2,v2的键值对数量
                System.out.println("Combiner输入键值对<" + key.toString() + ","
                        + value.get() + ">");
            }
            context.write(key, new LongWritable(count));
            // 显示次数表示输出的k2,v2的键值对数量
            System.out.println("Combiner输出键值对<" + key.toString() + "," + count
                    + ">");
        };
    }

 

添加设置Combiner的代码

 

    // 设置Map规约Combiner类(函数)
    job.setCombinerClass(MyCombiner.class);

调试运行的控制台打印信息

  (1)Mapper时期

Mapper输出<hello,1>
Mapper输出<edison,1>
Mapper输出<hello,1>
Mapper输出<kevin,1>

  (2)Combiner时期

 

Combiner输入分组<edison,N(N>=1)>
Combiner输入键值对<edison,1>
Combiner输出键值对<edison,1>
Combiner输入分组<hello,N(N>=1)>
Combiner输入键值对<hello,1>
Combiner输入键值对<hello,1>
Combiner输出键值对<hello,2>
Combiner输入分组<kevin,N(N>=1)>
Combiner输入键值对<kevin,1>
Combiner输出键值对<kevin,1>

  这里可以看出,在Combiner中进行了一次本地的Reduce操作,从而简化了远程Reduce节点的归并压力。

  (3)Reducer时期

Reducer输入分组<edison,N(N>=1)>
Reducer输入键值对<edison,1>
Reducer输入分组<hello,N(N>=1)>
Reducer输入键值对<hello,2>
Reducer输入分组<kevin,N(N>=1)>
Reducer输入键值对<kevin,1>

  这里可以看出,在对hello的归并计算一次,只进行一次操作就完成了。

 

  那么,如果我们再来看看不添加Combiner时的控制台输出信息:

  (1)Mapper

Mapper输出<hello,1>
Mapper输出<edison,1>
Mapper输出<hello,1>
Mapper输出<kevin,1>

  (2)Reducer

Reducer输入分组<edison,N(N>=1)>
Reducer输入键值对<edison,1>
Reducer输入分组<hello,N(N>=1)>
Reducer输入键值对<hello,1>
Reducer输入键值对<hello,1>
Reducer输入分组<kevin,N(N>=1)>
Reducer输入键值对<kevin,1>

  可以看出,没有采用Combiner时hello都是由Reducer节点来进行统一的归并,也就是这里为何会有两次hello的输入键值对了。

总结:从控制台的输出信息我们可以发现,其实combine只是把两个相同的hello进行规约,由此输入给reduce的就变成了<hello,2>。在实际的Hadoop集群操作中,我们是由多台主机一起进行MapReduce的,如果加入规约操作,每一台主机会在reduce之前进行一次对本机数据的规约,然后在通过集群进行reduce操作,这样就会大大节省reduce的时间,从而加快MapReduce的处理速度。

参考: https://blog.csdn.net/deguotiantang/article/details/58586972

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值