Hadoop 与 Spark 和 HBase 常用配置参数总结

本文转自 http://dongxicheng.org/framework-on-yarn/hadoop-spark-common-parameters/


一. 背景

MapReduce 和 Spark 对外提供了上百个配置参数,用户可以为作业定制这些参数以更快,更稳定的运行应用程序。本文梳理了最常用的一些 MapReduce 和 Spark 配置参数。


二. MapReduce重要配置参数

2.1 资源相关参数

1. mapreduce.map.memory.mb

  • 一个 Map Task 可使用的资源上限(单位: MB)。如果 Map Task 实际使用的资源量超过该值,则会被强制杀死
  • 默认为 1024 MB

2. mapreduce.reduce.memory.mb

  • 一个 Reduce Task 可使用的资源上限(单位: MB)。如果 Reduce Task 实际使用的资源量超过该值,则会被强制杀死
  • 默认为 1024 MB

3. mapreduce.map.java.opts

  • Map Task 的 JVM 参数,你可以在此配置默认的 java heap size 等参数 e.g.
"-Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc"
  • @taskid@ 会被 Hadoop 框架自动换为相应的 taskid
  • 默认值: “-Xmx1024m”

4. mapreduce.reduce.java.opts

  • Reduce Task 的 JVM 参数,你可以在此配置默认的 java heap size 等参数, e.g.
"-Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc"
  • @taskid@ 会被 Hadoop 框架自动换为相应的 taskid
  • 默认值: “-Xmx1024m”

5. mapreduce.map.cpu.vcores

  • 每个 Map task 可使用的最多 cpu core 数目
  • 默认值: 1

6. mapreduce.map.cpu.vcores

  • 每个 Reduce task 可使用的最多 cpu core 数目
  • 默认值: 1

2.2 容错相关参数

1. mapreduce.map.maxattempts

  • 每个 Map Task 最大重试次数,一旦重试参数超过该值,则认为 Map Task 运行失败
  • 默认值:4

2. mapreduce.reduce.maxattempts

  • 每个 Reduce Task 最大重试次数,一旦重试参数超过该值,则认为 Map Task 运行失败
  • 默认值:4

3. mapreduce.map.failures.maxpercent

  • 当失败的 Map Task 失败比例超过该值为,整个作业则失败。 如果你的应用程序允许丢弃部分输入数据,则该该值设为一个大于 0 的值,比如 5,表示如果有低于 5%的 Map Task 失败(如果一个 Map Task 重试次数超过 mapreduce.map.maxattempts,则认为这个 Map Task 失败,其对应的输入数据将不会产生任何结果),整个作业仍认为成功
  • 默认值为 0

4. mapreduce.reduce.failures.maxpercent

  • 当失败的 Reduce Task 失败比例超过该值为,整个作业则失
  • 默认值为0

5. mapreduce.task.timeout

  • Task 超时时间,经常需要设置的一个参数,该参数表达的意思为:如果一个 task 在一定时间内没有任何进入,即不会读取新的数据,也没有输出数据,则认为该 task 处于 block 状态,可能是卡住了,也许永远会卡主,为了防止因为用户程序永远 block 住不退出,则强制设置了一个该超时时间(单位毫秒)
  • 默认是 300000 ms
  • 如果你的程序对每条输入数据的处理时间过长(比如会访问数据库,通过网络拉取数据等),建议将该参数调大,该参数过小常出现的错误提示是“AttemptID:attempt_14267829456721_123456_m_000224_0 Timed out after 300 secsContainer killed by the ApplicationMaster.”

2.3本地运行 mapreduce 作业

设置以下几个参数:

1. mapreduce.framework.name=local

2. mapreduce.jobtracker.address=local

3. fs.defaultFS=local


2.4 效率和稳定性相关参数

1. mapreduce.map.speculative

  • 是否为 Map Task 打开推测执行机制
  • 默认为 false

2. mapreduce.reduce.speculative

  • 是否为 Reduce Task 打开推测执行机
  • 默认为 false

3. mapreduce.job.user.classpath.first & mapreduce.task.classpath.user.precedence

  • 当同一个 class 同时出现在用户 jar 包和 hadoop jar 中时,优先使用哪个 jar 包中的 class
  • 默认为 false,表示优先使用 hadoop jar 中的 class

4. mapreduce.input.fileinputformat.split.minsize

  • 每个 Map Task 处理的数据量(仅针对基于文件的 Inputformat 有效,比如TextInputFormat,SequenceFileInputFormat)
  • 默认为一个 block 大小,即 134217728 (128M)



三. HBase 相关配置参数

1. hbase.rpc.timeout

  • rpc 的超时时间,默认 60s
  • 不建议修改,避免影响正常的业务,在线上环境刚开始配置的是 3 秒,运行半天后发现了大量的 timeout error,原因是有一个 region 出现了如下问题阻塞了写操作:“Blocking updates … memstore size 434.3m is >= than blocking 256.0m size”可见不能太低

2. ipc.socket.timeout

  • socket 建立链接的超时时间,应该小于或者等于 rpc 的超时时间
  • 默认为 20s

3. hbase.client.retries.number

  • 重试次数
  • 默认为10,可配置为3

4. hbase.client.pause

  • 重试的休眠时间
  • 默认为 1s,可减少,比如 100ms

5. hbase.regionserver.lease.period

  • scan 查询时每次与 server 交互的超时时间
  • 默认为 60s,可不调整



四. Spark 相关配置参数

4.1 效率及稳定性相关参数

建议打开 map(注意,在 spark 引擎中,也只有 map 和 reduce 两种 task,spark 叫 ShuffleMapTask 和 ResultTask)中间结果合并及推测执行功能:

1. spark.shuffle.consolidateFiles=true

2. spark.speculation=trure


4.2 容错相关参数

建议将这些值调大,比如:

1. spark.task.maxFailures=8

2. spark.akka.timeout=300

3. spark.network.timeout=300

4. spark.yarn.max.executor.failures=100

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值