YARN and MapReduce的【内存】优化配置详解

转载自:http://blog.itpub.net/30089851/viewspace-2127850/

在Hadoop2.x中, YARN负责管理MapReduce中的资源(内存, CPU等)并且将其打包成Container。
使之专注于其擅长的数据处理任务, 将无需考虑资源调度. 如下图所示    
         
YARN会管理集群中所有机器的可用计算资源. 基于这些资源YARN会调度应用(比如MapReduce)发来的资源请求, 然后YARN会通过分配Co
ntainer来给每个应用提供处理能力, Container是YARN中处理能力的基本单元, 是对内存, CPU等的封装. 


目前我这里的服务器情况:6台slave,每台:32G内存,2*6核CPU。

由于hadoop 1.x存在JobTracker和TaskTracker,资源管理有它们实现,在执行mapreduce作业时,资源分为map task和reduce task。
所有存在下面两个参数分别设置每个TaskTracker可以运行的任务数:

点击(此处)折叠或打开

  1. <property>
  2.         <name>mapred.tasktracker.map.tasks.maximum</name>
  3.         <value>6</value>
  4.         <description><![CDATA[CPU数量=服务器CPU总核数 / 每个CPU的核数;服务器CPU总核数 = more /proc/cpuinfo | grep 'processor' | wc -l;每个CPU的核数 = more /proc/cpui nfo | grep 'cpu cores']]></description>
  5. </property>
  6. <property>
  7.         <name>mapred.tasktracker.reduce.tasks.maximum</name>
  8.         <value>4</value>
  9.         <description>一个task tracker最多可以同时运行的reduce任务数量</description>
  10. </property>
 

但是在hadoop 2.x中,引入了Yarn架构做资源管理,在每个节点上面运行NodeManager负责节点资源的分配,而slot也不再像1.x那样区分Map slot和Reduce slot。在Yarn上面Container是资源的分配的最小单元。

Yarn集群的内存分配配置在yarn-site.xml文件中配置:

点击(此处)折叠或打开

  1. <property>
  2.         <name>yarn.nodemanager.resource.memory-mb</name>
  3.         <value>22528</value>
  4.         <discription>每个节点可用内存,单位MB</discription>
  5.     </property>
  6.     
  7.     <property>
  8.         <name>yarn.scheduler.minimum-allocation-mb</name>
  9.         <value>1500</value>
  10.         <discription>单个任务可申请最少内存,默认1024MB</discription>
  11.     </property>
  12.     
  13.     <property>
  14.         <name>yarn.scheduler.maximum-allocation-mb</name>
  15.         <value>16384</value>
  16.         <discription>单个任务可申请最大内存,默认8192MB</discription>
  17.     </property>

 

由于我Yarn集群还需要跑Spark的任务,而Spark的Worker内存相对需要大些,所以需要调大单个任务的最大内存(默认为8G)。

而Mapreduce的任务的内存配置:

点击(此处)折叠或打开

  1. <property>
  2.         <name>mapreduce.map.memory.mb</name>
  3.         <value>1500</value>
  4.         <description>每个Map任务的物理内存限制</description>
  5.     </property>
  6.     
  7.     <property>
  8.         <name>mapreduce.reduce.memory.mb</name>
  9.         <value>3000</value>
  10.         <description>每个Reduce任务的物理内存限制</description>
  11.     </property>
  12.     
  13.     <property>
  14.         <name>mapreduce.map.java.opts</name>
  15.         <value>-Xmx1200m</value>
  16.     </property>
  17.     
  18.     <property>
  19.         <name>mapreduce.reduce.java.opts</name>
  20.         <value>-Xmx2600m</value>
  21.     </property>

mapreduce. map .memory.mb:每个 map 任务的内存,应该是大于或者等于 Container 的最小内存。 
按照上面的配置:每个slave可以运行 map 的数据<=  22528 / 1500 , reduce 任务的数量<= 22528/3000   。

mapreduce.map.memory.mb >mapreduce.map.java.opts
mapreduce.reduce.memory.mb >mapreduce.reduce.java.opts


mapreduce.map.java.opts
 / mapreduce.map.memory.mb
=0.70~0.80
mapreduce.reduce.java.opts / mapreduce.reduce.memory.mb
=0.70~0.80

yarn container这种模式下,JVM进程跑在container中,mapreduce.{map|reduce}.java.opts 能够通过Xmx设置JVM最大的heap的使用,
一般设置为
0.75倍的memory.mb

则预留些空间会存储java,scala code等。

来自若泽大数据交流群

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值