MapReduce优化参数

资源相关参数

/*在MapReduce应用程序中配置就可以生效*/

(1) mapreduce.map.memory.mb: 

    一个Map Task可使用的内存上限(单位:MB),默认为1024。如果Map Task实际使用的资源量超过该值,则会被强制杀死。

(2) mapreduce.reduce.memory.mb:

    一个Reduce Task可使用的资源上限(单位:MB),默认为1024。如果Reduce Task实际使用的资源量超过该值,则会被强制杀死。

(3) mapreduce.map.cpu.vcores

    每个Maptask可用的最多cpu core数目, 默认值: 1

(4) mapreduce.reduce.cpu.vcores:

    每个Reducetask可用最多cpu core数目默认值: 1

(5) mapreduce.map.java.opts: 

Map Task的JVM参数,你可以在此配置默认的java heapsize等参数,

例如:“-Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc”(@taskid@会被Hadoop框架自动换为相应的taskid), 默认值: “”

(6) mapreduce.reduce.java.opts:

 Reduce Task的JVM参数,你可以在此配置默认的java heap size等参数,

    例如:“-Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc”, 默认值: “”

/*在yarn启动之前就配置在服务器的配置文件中才能生效*/

(1) yarn.scheduler.minimum-allocation-mb RM中每个容器请求的最小配置,以MB为单位,默认1024
(2) yarn.scheduler.maximum-allocation-mb RM中每个容器请求的最大分配,以MB为单位,默认8192
(3) yarn.scheduler.minimum-allocation-vcores    1  
(4)yarn.scheduler.maximum-allocation-vcores32
(5)yarn.nodemanager.resource.memory-mb

   表示该节点上YARN可使用的物理内存总量,默认是8192(MB),注意,如果你的节点内存资源不够8GB,则需要调减小这个值,而YARN不会智能的探测节点的物理内存总量。

/*shuffle性能优化的关键参数,应在yarn启动之前就配置好*/

(1)mapreduce.task.io.sort.mb   100shuffle的环形缓冲区大小,默认100m
(2) mapreduce.map.sort.spill.percent   0.8环形缓冲区溢出的阈值,默认80%

容错相关参数

(1) mapreduce.map.maxattempts:

        每个Map Task最大重试次数,一旦重试参数超过该值,则认为Map Task运行失败,默认值:4。

(2) mapreduce.reduce.maxattempts: 

        每个Reduce Task最大重试次数,一旦重试参数超过该值,则认为Map Task运行失败,默认值:4。

(3) mapreduce.map.failures.maxpercent: 

        当失败的Map Task失败比例超过该值,整个作业则失败,默认值为0. 如果你的应用程序允许丢弃部分输入数据,则该该值设为一个大于0的值,比如5,表示如果有低于5%的Map Task失败(如果一个Map Task重试次数超过mapreduce.map.maxattempts,则认为这个Map Task失败,其对应的输入数据将不会产生任何结果),整个作业扔认为成功。

(4) mapreduce.reduce.failures.maxpercent:

        当失败的Reduce Task失败比例超过该值为,整个作业则失败,默认值为0.

(5) mapreduce.task.timeout:

        如果一个task在一定时间内没有任何进入,即不会读取新的数据,也没有输出数据,则认为该task处于block状态,可能是临时卡住,也许永远会卡住。为了防止因为用户程序永远block不退出,则强制设置了一个超时时间(单位毫秒),默认是600000,值为0将禁用超时。。

效率跟稳定性参数

(1) mapreduce.map.speculative: 

        是否为Map Task打开推测执行机制,默认为true, 如果为true,则可以并行执行一些Map任务的多个实例。

(2) mapreduce.reduce.speculative:

        是否为Reduce Task打开推测执行机制,默认为true

(3)mapreduce.input.fileinputformat.split.minsize:

      FileInputFormat做切片时最小切片大小,默认1。

(5)mapreduce.input.fileinputformat.split.maxsize:

      FileInputFormat做切片时最大切片大小

(6)推测执行机制(Speculative Execution):

          它根据一定的法则推测出“拖后腿”的任务,并为这样的任务启动一个备份任务,让该任务与原始任务同时处理同一份数据,并最终选用最先成功运行完成任务的计算结果作为最终结果。

注意:

    默认mr推测机制是开启的,通常情况下 公司都会关闭该机制,减少资源的浪费
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MapReduce是一个分布式计算框架,其性能取决于许多因素,例如硬件配置、数据分布、算法复杂度、网络带宽等等。以下是一些MapReduce优化参数的建议: 1. 调整mapreduce.map.memory.mb和mapreduce.reduce.memory.mb参数,以确保任务有足够的内存。如果任务的内存不够,则可能会导致任务失败或运行缓慢。 2. 调整mapreduce.map.cpu.vcores和mapreduce.reduce.cpu.vcores参数,以确保任务有足够的CPU资源。如果任务的CPU资源不够,则可能会导致任务运行缓慢。 3. 调整mapreduce.task.io.sort.mb参数,以确保Map任务有足够的内存来进行排序操作。如果Map任务的内存不够,则可能会导致排序操作耗时较长。 4. 调整mapreduce.tasktracker.map.tasks.maximum和mapreduce.tasktracker.reduce.tasks.maximum参数,以确保任务能够充分利用集群资源。如果任务数量不够,则可能会导致集群资源浪费。 5. 调整mapreduce.job.reduce.slowstart.completedmaps参数,以确保Reduce任务在Map任务完成一定比例后开始执行。如果Reduce任务开始执行得太早,则可能会导致Reduce任务执行缓慢。 6. 调整mapreduce.map.speculative和mapreduce.reduce.speculative参数,以启用任务的备份执行。如果任务存在资源利用不充分的情况,则备份执行可以提高任务的执行效率。 7. 调整mapreduce.input.fileinputformat.split.minsize参数,以控制HDFS块的大小。如果块的大小过小,则可能会导致任务数量过多,从而影响任务的执行效率。 8. 调整mapreduce.jobtracker.handler.count和mapreduce.tasktracker.http.threads参数,以控制任务的处理效率。如果处理效率不够高,则可能会导致任务的执行速度缓慢。 这些参数只是MapReduce优化的一部分。要优化MapReduce性能,需要根据具体情况进行调整,并综合考虑各种因素。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值