hadoop MR 内存不足

博客内容描述了Hadoop MapReduce(MR)任务遇到内存不足的问题,具体表现为Container超出物理和虚拟内存限制被杀死。解决方案是通过增加内存分配,如设置`mapreduce.map.memory.mb`和`mapred.map.child.java.opts`等参数。同时提到了Hadoop 2.2中关于YARN和MapReduce内存控制的重要参数,如`yarn.scheduler.minimum-allocation-mb`等。
摘要由CSDN通过智能技术生成

MR内存不足:
18/07/17 15:20:21 INFO mapreduce.Job: Task Id : attempt_1530494171563_1814563_m_000022_0, Status : FAILED
Container [pid=25576,containerID=container_e06_1530494171563_1814563_01_000066] is running beyond physical memory limits. Current usage: 4.1 GB of 4 GB physical memory used; 7.6 GB of 8.4 GB virtual memory used. Killing container.
Dump of the process-tree for container_e06_1530494171563_1814563_01_000066 :
|- PID PPID PGRPID SESSID CMD_NAME USER_MODE_TIME(MILLIS) SYSTEM_TIME(MILLIS) VMEM_USAGE(BYTES) RSSMEM_USAGE(PAGES) FULL_CMD_LINE
|- 25576 25574 25576 25576 (bash) 0 0 115843072 357 /bin/bash -c /usr/local/jdk1.8.0_131/bin/java -Djava.net.preferIPv4Stack=true -Dhadoop.metrics.log.level=WARN -Xmx3072m -Djava.io.tmpdir=/data9/hadoop/local/usercache/dw/appcache/application_1530494171563_1814563/container_e06_1530494171563_1814563_01_000066/tmp -Dlog4j.configuration=container-log4j.properties -Dyarn.app.cont

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值