MapReduce Shuffle过程详解

Shuffle过程是MapReduce的核心,也被称为奇迹发生的地方。要想理解MapReduce,Shuffle是必须要了解的。我看过很多相关方面的资料,但每次看完都云里雾里的绕着,很难理清大致的逻辑,反而越搅越乱。前端时间在做MapReduce job性能调优的工作,需要深入代码研究MapReduce的运行机制,这才对Shuffle探了个究竟。考虑到之前我在看相关资料而看不懂时很恼火,所以在这里我尽最大的可能试着把Shuffle说清楚,让每一位想了解它原理的朋友都能有所收获。如果你对这篇文章有任何疑问或建议请留言到后面,谢谢!

Shuffle的正常意思是洗牌或弄乱,可能大家更熟悉的是JAVA API里的Collections.shuffle(List)方法,它会随机地打乱参数list里的元素顺序。如果你不知道MapReduce里Shuffle是什么,那么请看这张图:


这张是官方对Shuffle过程的描述。但我可以肯定的是,但从这张图你基本不可能明白Shuffle的过程,因为它与事实相差挺多,细节也是挺乱的。后面我会具体描述Shuffle的事实情况,所以这里你只要清楚Shuffle的大致范围就OK,Shuffle的大致范围是Map端输出结果到数据传送到Reduce端。也可以这样理解,Shuffle描述着数据从MapTask输出到ReduceTask输入的这段过程。

在Hadoop这样的集群环境中,大部分MapTask与ReduceTask的执行是在不同的节点上的,当然很多情况下Reduce执行时需要跨节点去拉取其他节点上MapTask的结果。如果集群正在运行的job很多,那么Task的正常执行对集群内部的网络资源消耗会很严重。这种网络消耗是正常的,我们不能限制,能做的就是最大化的减少不必要的消耗。还有在节点内,相比与内存,磁盘IO对Job完成时间影响也是可观的。从最基本的要求来说,我们对Shuffle过程的期望可以有:

(1):完整地从Map Task端拉取数据到Reduce端。

(2):在跨节点拉取数据时,尽可能地减少对带宽的不必要消耗。

(3):减少磁盘IO对Task执行的影响。

OK,看到这里时,大家可以先停下来想想,如果是自己来设计这段Shuffle过程,那么你的实际目标是什么。我能优化的地方主要在于减少拉取数据的量及尽量使用内存而不是磁盘。

我的分析基于Hadoop0.21.0的源码,如果与你所认识的Shuffle过程有差别,不吝指出。我会以WordCount为例,并假设它有8个MapTask和3个Reduce Task。从上图看出,Shuffle过程横跨Map与Reduce两端,所以下面我也会分两部分来展开。

先看看Map端的情况,如下图:


上图可能是某个MapTask的运行情况。拿它与官方的左半边比较,会发现很多不一致。官方图没有清楚的说明Partition,Sort与Combiner到底作用在哪个阶段。我画了这张图,希望让大家清晰地了解从Map数据输入到Map端所有数据准备好的全过程。

整个流程我分了四步。简单些可以这样说,每个MapTask都有一个内存缓冲区,存储着map()函数的输出结果,当缓冲区快满的时候需要将缓冲区的数据以一个临时文件的形式放到磁盘,当整个MapTask结束后再对磁盘中这个MapTask产生的所有临时文件做合并,生成最终的正式输出文件,然后等待ReduceTask来拉取数据。当然这里的每一步都可能包含着多个步骤与细节,下面我对细节来一一说明:

1.在MapTask执行时,它的输入数据来源于HDFS的block,当然在MapReduce概念中MapTask只读取split。Split与block的对应关系可能是多对一,默认是一对一。在WordCount例子里,假设的输入数据都是像"aaa"这样的字符串。

2.在经过Mapper的运行后,我们得知Mapper的输出是这样的一个Key/Value对:Key是"aaa",Value是数值1。因为当前Map端只做加1的操作,在ReduceTask里才会去合并结果集。前面我们知道这个Job有3个ReduceTask,到底当前的"aaa"应该交由哪个Reduce去做呢?是需要现在决定的。

MapReduce提供Partition接口,它的作用就是根据Key或Value及Reduce的数量来决定当前的这对输出数据最终应该交由哪个ReduceTask处理。默认对Key Hash然后再对ReduceTask数量取模。默认的取模方式知识为了平均Reduce的处理能力,如果用户自己对Partitioner有需求,可以订制并设置到Job上。

在我们的例子中,"aaa"经过Partitioner后返回0,也就是这对值应当交由第一个Reducer来处理。接下来,需要将数据写入内存缓冲区中,缓冲区的作用是批量收集Map结果,我们的Key/value对以及Partition的结果都会被写入缓冲区。当然写入之前,Key与Value值都会被序列化成字节数组。

整个内存缓冲区就是一个字节数组,它的字节索引及Key/Value存储结构我没有研究过。如果有朋友对它有研究,那么请大致描述一下它的细节吧。

3.这个内存缓冲区是有大小限制的,默认是100MB。当MapTask的输出结果很多时,就可能会撑爆内存,所以需要在一定条件下将缓冲区中的数据临时写入磁盘,然后重新利用这块缓冲区。这个从内存往磁盘写数据的过程称为spill,中文可译为溢写,字面意思很直观。这个溢写是由单独线程来完成的,不影响往缓冲区写map结果的线程。溢写线程启动时不应该阻止map的结果输出,所以整个缓冲区有个溢写的比例spill.percent。这个比例默认是0.8,也就是当缓冲区的数据已经达到阈值(buffer size*spill percent=100MB*0.8=80MB),溢写线程启动,锁定这80MB的内存,执行溢写过程。MapTask的输出结果还可以往剩下的20MB内存中写,互不影响。

当溢写线程启动后,需要对着80MB空间内的Key做排序(Sort)。排序是MapReduce模型默认的行为,这里的排序也是对序列化的字节做的排序。

在这里我们可以想象,因为MapTask的输出是需要发送到不同的Reduce端去,而内存缓冲区没有对将发送到相同Reduce端的数据做合并,那么这种合并应该是体现是磁盘文件中的。从官方图上也可以看到写到磁盘中的溢写文件是对不同的Reduce端的数值做过合并。所以溢写过程一个很重要的细节在于,如果有很多的Key/Value对需要发送到某个Reduce端去,那么需要将这些Key/Value值拼接到一块,减少与Partion相关的索引记录。

在针对每个Reduce端而合并数据时,有些数据可能像这样:"aaa"/1,"aaa"/1.对于WordCount例子,就是简单地统计单词出现的次数,如果在同一个MapTask的结果中有很多个像"aaa"一样出现多次的Key,我们就应该把它们的值合并到一块,这个过程叫Reduce也叫Combine。但MapReduce的术语中,Reduce只指Reduce端执行从多个MapTask取数据做计算的过程。除Reduce外,非正式地合并数据只能算做Combine了,其实大家都知道,MapReduce中将Combine等同于Reducer。

如果Client设置过Combiner,那么现在就是使用Combiner的时候了。将有相同Key的Key/Value对的Value加起来,减少溢写到磁盘的数据量。Combiner会优化MapReduce的中间结果,所以它在整个模型中会多次使用。那哪些场景才能使用Combiner呢?从这里分析,Combiner的输出是Reducer的输入,Combiner决不能改变最终的计算结果。所以从我的想法来看,Combiner只应该用于那种Reduce的输入Key/Value与输出Key/Value类型完全一致,且不影响最终结果的场景。比如累加,最大值等。Combiner的使用一定要慎重,如果用好,它对Job执行效率有帮助,反之会影响Reduce的最终结果。

4.每次溢写会在磁盘上生成一个溢写文件,如果Map的输出结果真的很大,有多次这样的溢写发生,磁盘上相应的就会有多个溢写文件存在。当MapTask真正完成时,内存缓冲区中的数据也会全部溢写到磁盘中形成一个溢写文件。最终磁盘中会至少有一个这样的溢写文件存在(如果Map的输出结果很少,当Map执行完成时,只会产生一个溢写文件),因为最终的只有一个,所以需要将这些溢写文件归并到一起,这个过程叫做Merge。Merge是怎样的?如前面的例子,"aaa"从某个MapTask的一个溢写文件中读取过来时候值是5,从另外一个MapTask的溢写文件读取时值为8,因为它们有相同的Key,所以得merge成group。什么是group。对于"aaa"就是像这样得:{"aaa",[5,8,2,...]},数组中的值就是从不同溢写文件中读取出来的,然后再把这些值加起来。请注意,因为merge是将多个溢写文件合并到一个文件,所以可能也有相同的key存在,在这个过程中如果Client设置过Combiner,也会使用Combiner来合并相同的Key。

至此,Map端的所有工作都已结束,最终生成的这个文件也存放在TaskTracker够得着的某个本地目录内。每个ReduceTask不断地通过RPC从JobTracker那里获取MapTask是否完成的信息,如果Reduce Task得到通知,获知某个TaskTracker上的MapTask执行完成,Shuffle的后半段过程开始启动。

简单的说,ReduceTask在执行之前的工作就是不断拉取当前job里每个MapTask的最终结果,然后对从不地方拉取过来的数据不断地做merge,也最终形成一个文件作为ReduceTask的输入文件。见下图:


如Map端的细节图,Shuffle在Reduce端的过程也能用图上表明的三点来概括。当前Reduce copy数据的前提是它要从JobTracker获得要哪些MapTask以执行结束。Reduce真正运行之前,所有的时间都是在拉取数据,做merge,且不断重复地在做。如前面的方式一样,下面我也分段地描述Reduce端的Shuffle细节。

1.Copy过程,简单地拉取数据。Reduce进程启动一些数据Copy线程(Fetcher),通过HTTP方式请求MapTask所在的TaskTracker获取MapTask的输出文件。因为MapTask早已结束,这些文件就归TaskTracker管理在本地磁盘中。

2.Merge阶段。这里的merge如Map端的merge动作,只是数据中存放的是不同Map端copy来的数值。Copy过来的数据会先放入内存缓冲区中,这里的缓冲区大小要比Map端的更为灵活,它基于JVM的heap size设置,因为Shuffle阶段Reducer不运行,所以应该把绝大部分的内存都给Shuffle用。这里需要强调的是,merge有三种形式:1)内存到内存 2)内存到磁盘 3)磁盘到磁盘。默认情况下第一种形式不启用,让人比较困惑,是吧。当内存中的数据量达到一定阈值,就启动内存到磁盘的merge。与Map端类似,这也是溢写的过程,这个过程中如果你设置有Combiner,也是会启用的,然后在磁盘中生成了众多的溢写文件。第二种merge方式一直在运行,直到没有map端的数据时才结束,然后启动第三种磁盘到磁盘的merge方式生成最终的那个文件。

3.Reducer的输入文件。不断的merge后,最后会生成一个"最终文件"。为什么加上引号?因为这个文件可能存在于磁盘上,也可能存在于内存中。对我们来说,当然希望它存放于内存中,直接作为Reducer的输入,但默认情况下,这个文件是存放于磁盘中的。至于怎样才能让这个文件出现在内存中,之后的性能调优我再说。当Reducer的输入文件已定,整个Shuffle才最终结束。然后Reducer执行,把结果放在HDFS上。


上面就是整个Shuffle的过程。细节很多,我很多都略过了,只试着把要点说明白。当然,我可能也有理解或表述上的很多问题,不吝指点,我希望不断完善和修改这篇文章,能让它通俗易懂,看完就能知道Shuffle的方方面面。至于具体的实现原理,各位有兴趣就自己去探索,如果不方便的话,留言给我,我再来研究并反馈。



原文来自:http://langyu.iteye.com/blog/992916#comments

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值