mapreduce作业reduce被大量kill掉

在Hadoop2.4集群中,由于YARN的特性,MapReduce作业的Reduce任务可能会过早启动,导致资源利用率低和Map任务饿死。通过调整`mapreduce.job.reduce.slowstart.completedmaps`和`yarn.app.mapreduce.am.job.reduce.rampup.limit`参数,如将前者设为0.5,后者设为0.2,可以在Map任务完成50%后再启动Reduce任务,并限制在Map全部完成前只启动20%的Reduce任务,有效避免了Reduce任务被kill的情况。
摘要由CSDN通过智能技术生成

       之前有一段时间,我们的hadoop2.4集群压力非常大,导致提交的job出现大量的reduce被kill掉,相同的job运行时间比在hadoop0.20.203上面长了很多,这个问题其实是reduce 任务启动时机的问题由于yarn中没有map slot和reduce slot的概念,且ResourceManager也不知道map task和reduce task之间的依赖关系,因此MRAppMaster自己需要设计资源申请策略以防止因reduce task过早启动照成资源利用率低下和map task因分配不到资源而饿死,然后通过抢占机制,大量reduce任务被kill掉。MRAppMaster在MRv1原有策略(map task完成数目达到一定比例后才允许启动reduce task)基础上添加了更为严格的资源控制策略和抢占策略:

1、mapreduce.job.reduce.slowstart.completedmaps
当map 任务完成

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值