[Hive]从一个经典案例看优化mapred.map.tasks的重要性

33 篇文章 1 订阅

我所在公司所使用的生产Hive环境的几个参数配置如下:
dfs.block.size=268435456
hive.merge.mapredfiles=true
hive.merge.mapfiles=true
hive.merge.size.per.task=256000000
mapred.map.tasks=2 

因为合并小文件默认为true,而dfs.block.sizehive.merge.size.per.task的搭配使得合并后的绝大部分文件都在300MB左右。

CASE1

现在我们假设有3300MB大小的文件,那么goalsize = min(900MB/2,256MB) = 256MB (具体如何计算map数请参见http://blog.sina.com.cn/s/blog_6ff05a2c010178qd.html)
所以整个JOB会有6map,其中3map分别处理256MB的数据,还有3map分别处理44MB的数据。
这时候木桶效应就来了,整个JOBmap阶段的执行时间不是看最短的1map的执行时间,而是看最长的1map的执行时间。所以,虽然有3map分别只处理44MB的数据,可以很快跑完,但它们还是要等待另外3个处理256MBmap。显然,处理256MB3map拖了整个JOB的后腿。

CASE2

如果我们把mapred.map.tasks设置成6,再来看一下有什么变化:
goalsize = min(900MB/6,256MB) = 150MB
整个JOB同样会分配6map来处理,每个map处理150MB的数据,非常均匀,谁都不会拖后腿,最合理地分配了资源,执行时间大约为CASE 159%(150/256) 

案例分析:

虽然mapred.map.tasks2调整到了6,但是CASE 2并没有比CASE 1多用map资源,同样都是使用6map。而CASE 2的执行时间约为CASE 1执行时间的59%
从这个案例可以看出,对mapred.map.tasks进行自动化的优化设置其实是可以很明显地提高作业执行效率的。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值