Yarn 3.x版本容器内存控制功能失效排查

问题背景

Yarn集群中一部分节点的内存被打爆,排查发现作业使用内存超出了NodeManager的最大内存限制

找出故障时间点运行的作业,发现作业内存设置不合理,用户只设置了

mapreduce.map.java.opts=-Xmx40240m;
mapreduce.reduce.java.opts=-Xmx80240m;

而没有设置

mapreduce.map.memory.mb(默认为1536)
mapreduce.reduce.memory.mb(默认为3072)

mapreduce.map.memory.mb 设置的是 Container 的内存上限,这个参数由 NodeManager 读取并进行控制,当 Container 的内存大小超过了这个参数值,NodeManager 会负责 kill 掉 Container。

mapreduce.map.java.opts 是启动 JVM 时,传递给虚拟机的启动参数,而 -Xmx40240m 表示这个 Java 程序可以使用的最大堆内存数,一旦超过这个大小,JVM 就会抛出 Out of Memory 异常,并终止进程。

正常情况下 mapreduce.map.memory.mb 的值必须大于或等于 mapreduce.map.java.opts 设置的 -Xmx,否则 JVM 可能无法启动

而上面这个作业设置的 mapreduce.map.java.opts 远超 mapreduce.map.memory.mb ,导致task实际使用的内存超出了container 的最大限制

但问题关键在于,理论上当内存使用超出 container 的最大限制时 yarn 应该主动 kill 掉该 container,实际上却并没有,所以接下来我开始排查Yarn内存控制的源码部分

Yarn内存控制

YARN 具有多种方式来强制执行容器内存限制。

1、轮询
在Hadoop 2版本,NodeManager后台会启动一个ContainersMonitor线程,每间隔一段时间(yarn.nodemanager.container-monitor.interval-ms,默认3s)轮询节点上的所有container,检查内存使用是否超出限制(mapreduce.map.memory.mb),并kill掉超出内存限制的container。

这种方式存在一个问题,因为需要间隔3s检查一次,如果container的内存分配很快,可能来不及kill就

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值