【Hadoop】MapReduce Job Files

Hadoop在运行MapReduce作业时,JobTracker和TaskTracker会生成并维护一系列文件,用于作业的执行、管理和监控。部分文件存储在HDFS,便于分发,部分存储在JobTracker和TaskTracker本地。主要的job文件类型包括Staging目录和History目录。Staging目录用于用户提交作业时将Job相关文件拷贝到HDFS;History目录则通过HistoryServer记录Job的历史运行状态,如任务尝试的启动时间、状态和计数器等。
摘要由CSDN通过智能技术生成

Hadoop运行一个MapReduce Job后,JobTracker和TaskTracker都需要创建/维护一系列的文件以便运行/管理/监控job。其中,有部分job files存储在HDFS从而可以分发到各个TT,有部分存储在JT和TT本地。


JobTracker Files

下表总结了几种主要的job file:


FS Location Property Child Directory Directory File List File Type
HDFS mapreduce.jobtracker.staging.root.dir <userId>/.staging/<jobId> job.xml
job.jar
job.split
job.splitmetainfo
Temporary
HDFS mapred.system.dir <jobId>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值