Hadoop运行一个MapReduce Job后,JobTracker和TaskTracker都需要创建/维护一系列的文件以便运行/管理/监控job。其中,有部分job files存储在HDFS从而可以分发到各个TT,有部分存储在JT和TT本地。
JobTracker Files
下表总结了几种主要的job file:
FS | Location Property | Child Directory | Directory File List | File Type |
HDFS | mapreduce.jobtracker.staging.root.dir | <userId>/.staging/<jobId> | job.xml job.jar job.split job.splitmetainfo |
Temporary |
HDFS | mapred.system.dir | <jobId> |