MapReduce调优

一 、 资源相关参数

以下参数是在用户自己的 mapreduce 应用程序中配置就可以生效 :

1、mapreduce.map.memory.mb: 一个 Map Task 可使用的资源上限(单位:MB),默认为 1024。
如果 Map Task 实际使用的资源量超过该值,则会被强制杀死。

2、mapreduce.reduce.memory.mb: 一个 Reduce Task 可使用的资源上限(单位:MB),默认为
1024。如果 Reduce Task 实际使用的资源量超过该值,则会被强制杀死。

3、mapreduce.map.java.opts: Map Task 的 JVM 参数,你可以在此配置默认的 java heap size
等参数, e.g.
“-Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc” (@taskid@会被 Hadoop 框架自动换
为相应的 taskid), 默认值: “”

4、mapreduce.reduce.java.opts: Reduce Task的JVM参数,你可以在此配置默认的java heap size
等参数, e.g.
“-Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc”, 默认值: “”

5、mapreduce.map.cpu.vcores: 每个 Map task 可使用的最多 cpu core 数目, 默认值: 1

6、mapreduce.reduce.cpu.vcores: 每个 Reduce task 可使用的最多 cpu core 数目, 默认值: 1

以下 参数 应该在 yarn 启动之前就配置在服务器的配置文件中才能生效 :

7、yarn.scheduler.minimum-allocation-mb=1024 给应用程序 container 分配的最小内存

8、yarn.scheduler.maximum-allocation-mb=8192 给应用程序 container 分配的最大内存

9、yarn.scheduler.minimum-allocation-vcores=1

10、yarn.scheduler.maximum-allocation-vcores=32

11、yarn.nodemanager.resource.memory-mb=8192

shuffle 性能优化的关键参数,应在 yarn 启动之前就配置好 :

12、mapreduce.task.io.sort.mb=100 //shuffle 的环形缓冲区大小,默认 100m

13、mapreduce.map.sort.spill.percent=0.8 //环形缓冲区溢出的阈值,默认 80%

二、 容错相关参数

1、mapreduce.map.maxattempts=4: 每个 Map Task 最大重试次数,一旦重试参数超过该值,
则认为 Map Task 运行失败

2、mapreduce.reduce.maxattempts=4: 每个 Reduce Task 最大重试次数,一旦重试参数超过该
值,则认为 Map Task 运行失败

3、mapreduce.map.failures.maxpercent=0: 当失败的 Map Task 失败比例超过该值为,整个作
业则失败。如果你的应用程序允许丢弃部分输入数据,则该该值设为一个大于 0 的值,比如
5,表示如果有低于 5%的 Map Task 失败(如果一个 Map Task 重试次数超过
mapreduce.map.maxattempts,则认为这个 Map Task 失败,其对应的输入数据将不会产生任
何结果),整个作业仍然认为成功。

4、mapreduce.reduce.failures.maxpercent=0: 当失败的 Reduce Task 失败比例超过该值为,整
个作业则失败

5、mapreduce.task.timeout: Task 超时时间,经常需要设置的一个参数,该参数表达的意思为:
如果一个 task 在一定时间内没有任何进入,即不会读取新的数据,也没有输出数据,则认
为该 task 处于 block 状态,可能是卡住了,也许永远会卡主,为了防止因为用户程序永远
block 住不退出,则强制设置了一个该超时时间(单位毫秒),默认是 300000。如果你的程
序对每条输入数据的处理时间过长(比如会访问数据库,通过网络拉取数据等),建议将该
参 数 调 大 , 该 参 数 过 小 常 出 现 的 错 误 提 示 是
“ AttemptID:attempt_14267829456721_123456_m_000224_0 Timed out after 300
secsContainer killed by the ApplicationMaster.”。

本地运行 mapreduce 作业

设置以下几个参数:
mapreduce.framework.name=local

mapreduce.jobtracker.address=local

效率和稳定性相关参数

1、mapreduce.map.speculative: 是否为 Map Task 打开推测执行机制,默认为 false

2、mapreduce.reduce.speculative: 是否为 Reduce Task 打开推测执行机制,默认为 false

3、mapreduce.job.user.classpath.first & mapreduce.task.classpath.user.precedence:当同一个
class 同时出现在用户 jar 包和 hadoop jar 中时,优先使用哪个 jar 包中的 class,默认为 false,
表示优先使用 hadoop jar 中的 class。

4、mapreduce.input.fileinputformat.split.minsize: FileInputFormat 做切片时的最小切片大小

5、mapreduce.input.fileinputformat.split.maxsize: FileInputFormat 做切片时的最大切片大小
(切片的默认大小就等于 blocksize,即 134217728)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值