一、hadoop的Job 提交流程源码
流程图:
1.从我们编写的mapreduce的代码中进入job提交源码
支线一:进入connect();
2.支线二:进入submitter.submitJobInternal(Job.this, cluster),向集群提交了job信息,这里是提交job任务的核心代码
该方法(submitter.submitJobInternal(Job.this, cluster))往下翻:
存入了切片信息的本地路径
submitter.submitJobInternal(Job.this, cluster)方法继续往下走
退出到最先进入的方法:
总结重点:job提交流程源码重点是在本次提交中,集群模式提交了jar包,切片信息和job相关参数信息的xml文件。
二、hadoop的Job 提交流程切片源码
上面Job提交流程中有切片部分,单独拎出来分析
该方法继续往下走
总结重点:切片大小默认是这样computeSplitSize(Math.max(minSize,Math.min(maxSize,blocksize)))=blocksize=128M,公司里也一般是这个,不过可以修改,切块大小不是精准128M切,而是每次切片时,都要判断切完剩下的部分是否大于块的1.1倍,不大于1.1倍就划分一块切片。
三、hadoop之NameNode 启动源码解析
NameNode启动代码路线,主要做了途中6件事儿,也就六个路线,接下来一个路线一个路线分析
1.搜索NameNode类,找到main方法,根据图线路径找到startHttpServer方法
①启动9870端口服务
该方法往下翻
②加载镜像文件和编辑日志