hive 本地MapReduce(local mr)

在hive中运行的sql有很多是比较小的sql,数据量小,计算量小.这些比较小的sql如果也采用分布式的方式来执行,那么是得不偿失的.因为sql真正执行的时间可能只有10秒,但是分布式任务的生成得其他过程的执行可能要1分钟.这样的小任务更适合采用lcoal mr的方式来执行.就是在本地来执行,通过把输入数据拉回客户端来执行.

拿select 1 from dual来看下,两种执行方式的效率差距.

分布式mr:

hive> select 1 from dual;
Total MapReduce jobs = 1
Launching Job 1 out of 1
Number of reduce tasks is set to 0 since there’s no reduce operator
Selecting distributed mode: Input Size (= 10) is larger than hive.exec.mode.local.auto.inputbytes.max (= -1)
Starting Job = job_201208241319_7711163, Tracking URL = http://hdpjt:50030/jobdetails.jsp?jobid=job_201208241319_7711163
Kill Command = /dhwdata/hadoop/bin/../bin/hadoop job  -Dmapred.job.tracker=hdpjt:9001 -kill job_201208241319_7711163
Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 0
2012-10-15 13:16:29,825 Stage-1 map = 0%,  reduce = 0%
2012-10-15 13:16:38,044 Stage-1 map = 100%,  reduce = 0%
Ended Job = job_201208241319_7711163
OK
1
Time taken: 15.278 seconds

本地mr:

hive> select 1 from dual;
Automatically selecting local only mode for query
Total MapReduce jobs = 1
Launching Job 1 out of 1
Number of reduce tasks is set to 0 since there’s no reduce operator
Execution log at: /tmp/dwapp/dwapp_20121015131717_eb78662f-2ccd-497c-a7eb-ba9a2234e153.log
Job running in-process (local Hadoop)
Hadoop job information for null: number of mappers: 0; number of reducers: 0
2012-10-15 13:17:28,644 null map = 0%,  reduce = 0%
2012-10-15 13:17:29,646 null map = 100%,  reduce = 0%
Ended Job = job_local_0001
2012-10-15 01:17:29     End of local task; Time Taken: 6.411 sec.
OK
1
Time taken: 7.859 seconds

因为仅仅是换了执行方式,效率提高了一倍.这还不算是差距大的,还遇到过效率差4倍以上的情况,如果jobtracker过忙,或者slots资源比较紧张的时候,这个差距会更大.

所以,合理的使用local mr对性能的提高有非常的提升.

下面两个参数是local mr中常用的控制参数:

1,hive.exec.mode.local.auto.inputbytes.max

设置local mr的最大输入数据量,当输入数据量小于这个值的时候会采用local  mr的方式

2,hive.exec.mode.local.auto.tasks.max

设置local mr的最大输入文件个数,当输入文件个数小于这个值的时候会采用local mr的方式

这个两个条件是与的条件,一定要都满足才可以

转载 http://www.oratea.net/?p=1393

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hive是一个基于Hadoop的数据仓库工具,它可以将SQL语句转化为MapReduce任务进行处理。在Hive中,每个SQL语句都会被转换为一个或多个MapReduce任务,具体的转换方式由Hive的执行引擎完成。在MapReduce任务执行过程中,Hive会把数据从HDFS中读取到内存中,进行各种计算和操作,最后再将结果写回到HDFS中。 在Hive中,MapReduce任务的执行过程可以分为以下几个步骤: 1. 输入数据的读取:Hive会从HDFS中读取输入数据,并按照指定的格式进行解析和转换,生成相应的键值对。 2. Map阶段的处理:Hive会将输入数据传给Map函数,对每个键值对进行处理,并输出中间结果。在Map过程中,Hive会执行用户定义的SQL语句,进行各种计算和操作。 3. Shuffle阶段的处理:Hive会将Map输出的中间结果按照键进行分组,并将相同键的值合并成一个列表。这个过程叫做Shuffle。 4. Reduce阶段的处理:Hive会将Shuffle输出的结果传给Reduce函数,对每个键值对进行处理,并输出最终结果。在Reduce过程中,Hive会执行用户定义的SQL语句,进行各种计算和操作。 5. 输出数据的写入:Hive会将Reduce输出的结果写回到HDFS中,生成最终的结果文件。 总的来说,HiveMapReduce主要是用来处理大规模的数据集,它通过将SQL转化为MapReduce任务,利用Hadoop分布式计算的能力,实现了高效的数据处理和分析。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值