前言
近日在线上发现有些mapreduce作业的执行时间很长,我们需要解决这个问题。输入文件的大小是5G,采用了lzo压缩,整个集群的默认block大小是128M。本文将详细描述这次线上问题的排查过程。
现象
线上有一个脚本,为了便于展示,我将这个脚本重新copy了一份并重命名为zzz。这个脚本实际是使用Hadoop streaming运行一个mapreduce任务,在线上执行它的部分输出内容如下:
可以看到map任务划分为1个。这个执行过程十分漫长,我将中间的一些信息省略,map与reduce任务的执行进度如下:
16/05/16 10:22:16 INFO mapreduce.Job: map 0% reduce 0%
16/05/16 10:22:32 INFO mapreduce.Job: map 1% reduce 0%
。。。
16/05/16 10:44:14 INFO mapreduce.Job: map 99% reduce 0%
16/05/16 10:44:20 INFO mapreduce.Job: map 100% reduce 0%
16/05/16 10:44:33 INFO mapreduce.Job: map 100% reduce 2%
16/05/16 10:44:34 INFO mapreduce.Job: map 100% reduce 19%
。。。
16/05/16 10:44:57 INFO mapreduce.Job: map 100% reduce 99%
16/05/16 10:44:58 INFO mapreduce.Job: map 100% reduce 100%
从以上内容可以看到map任务执行一共耗时22分钟左右,而reduce任务只耗用了30多秒。
分析
根据以上现象分析,我们知道耗时主要发生在map任务执行的阶段。我们首先查看下这个map任务的输入内容,看到它的大小为5GB且使用lzo压缩:
如此大的输入仅仅在一个map任务中处理显然是进度缓慢的主要原因,我们需要对mapreduce的任务划分进行干预。我们查看下mapreduce任务的InputFormat,以便确定干预的手段,打开我们的脚本其中有以下代码片段:
hadoop jar $streaming_jar \
-D mapred.reduce.tasks=30 \
-D mapreduce.job.maps=100 \
-D mapreduce.input.fileinputformat.split.minsize=100000000 \
-inputformat TextInputFormat \
-file mr.py \
-input $member_input \
-output $output \
-mapper "python mr.py map" \