Hadoop继承了Google的MapReduce的特性,具有map任务最大化本地化的能力,下面具体说下它是如何做到的。
在hadoop中,有很多taskScheduler,这里以默认的JobQueueTaskScheduler为例来说明。下面是assignTask的源代码
这里不想分析JobQueueTaskScheduler是具体如何工作的,主要想说的是它如何做到本地化。
它首先设置了一些和集群有关的常量,然后获取jobQueue。jobQueueJobInProgressListener是它对JobTracker注册的jobInProgressListener。然后获取还需要加载的map和reduce任务的数量。保存在int remainingReduceLoad 和
int remainingMapLoad 中。 然后计算mapLoadFactor 和 reduceLoadFactor。以及是否要扩充slot等等。
。。。
从 int numLocalMaps = 0;
int numNonLocalMaps = 0;
下面以后是真正分配任务的代码段了,我们来看看
接着看到这
看到注释,就会发现这里试图分配一个本地或者距离较近的一个MapTask
,于是我们找到了突破口,看看这个obtainNewLocalMapTask方法。不过在看之前,先看看getNumberOfUniqueHosts方法。这个方法很简单,返回向jobtracker请求UniqueHosts的size,我们暂且不去care它,接着走进obtainNewLocalMapTask看看他具体的实现方法。
我们发现最重要的是这句
int target = findNewMapTask(tts, clusterSize, numUniqueHosts, maxLevel,
status.mapProgress());
它是来寻找target的,所以需要深入看看这个函数的实现。这个方法非常的长,因为它是寻找map task的核心,需要耐心的研读。
findNewMapTask有一个taskTrackerstatus的变量,这个变量是干嘛的呢?
其实,assginTask是tasktracker每过10秒(默认)向jobtracker发送一次心跳,在这个过程中,他需要将它的状态传递给jobtracker, 这个变量就是jobtracker需要知道的。好了,下面看看这个方法的具体实现。
获取tip检查是否可以跑或者高效的跑,否则返回-1。然后它会从最近的level中寻找task,一般顺序为local -> rack-local -> off-switch ->speculative,阅读之后会发现 map任务的获取是和提交任务时的Node相关的。因此,下面还需要阅读提交作业的相关代码。
至此,本地化过程的难点转移到了提交任务那面了。
下面介于篇幅关系,我就不贴代码了,直接口述。
在提交作业的时候,会建立一个新的JobInProgress,这段很容易找到不再多说,然后调度器会有一个线程去调用JobInProgress的initTasks方法,这个方法会去调用readSplitFile,这个SplitFile是怎么生成的等到下篇在说。总之是一个分割任务的文件,然后会建立RawSplits数组调用crerateCache方法来建立nonRunningMapCache,首先将Splits[i].getlocations为0的加入到nonLocationMaps。然后建立新的Node。它需要调用jobTracker的resolveAndAddToTopology方法,此方法调用dnsToSwitchMapping.resolve方法。dnsTo..由jobTrakcer在初始化的时候由反响映射建立了ScriptBasedMapping ,他的resolve方法首先会调用runResolveCommand方法,这个方法负责运行一个脚本,是从"topology.script.file.name"属性中得到的。这个脚本用来返回一个IP地址对应的机架信息,这个完全由用户自己手写,所以一般这个机架感知功能是默认不用的。然后用返回信息的第一个参数作为参数,传入NodeBase.normalize。这里没脚本的话,返回的是NetworkTopology.DEFAULT_RACK,最后调用addHostToNodeMapping添加host,node到hostnameToNodeMap,再返回到createCache方法,它得到了机架信息以后,递归的将TaskInProgress添加到node中,到此,map tasks就初始化完成了,然后jobtrakcer.initJob将建立cleanip和setup的map和reduce任务的TIP,然后返回。
后面的叙述不知道大家能否看懂,总结一下就是在作业初始化的时候,文件信息和位置信息已经记录下来,在调度作业的时候,直接给tasktracker最近的分片就行了,有什么不懂的还是看代码吧,其实上面把过程说的很详细了。