hive 实现job并发执行

hive里,同一sql里,会涉及到n个job,默认情况下,每个job是顺序执行的。
如果每个job没有前后依赖关系,可以并发执行的话,可以通过设置该参数 set hive.exec.parallel=true,实现job并发执行,该参数默认可以并发执行的job数为8。

set hive.exec.parallel=true;

例如:

sql="""
set hive.exec.parallel=true;
use database;
select a,b,c
from
(
    select a1 as a,b1 as b,c1 as c from table1
    union all
    select a2 as a,b2 as b,c2 as c from table2
    union all
    select a3 as a,b3 as b,c3 as c from table
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hive tracker指的是Hive作业跟踪器,它用于跟踪Hive作业的执行情况和状态。根据引用中提供的信息,可以看出,设置`mapred.job.tracker`参数为`impala11:8021`,其中`impala11:8021`是Hadoop JobTracker的主机名和端口。这意味着Hive作业会将它们的信息发送给该主机和端口,以便进行跟踪和监控。引用中提到,默认情况下,每个tasktracker同时运行的map任务数为2。这可能对Hive作业的并发性和性能有一定影响。如果希望调整这个参数,可以通过设置`mapred.tasktracker.map.tasks.maximum`来实现。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [hive mapred.job.tracker设置](https://blog.csdn.net/bhq2010/article/details/17062069)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [Hive 配置mapred.tasktracker.map.tasks.maximum/hive.exec.reducers.max /每一个tasktracker同时运行的map...](https://blog.csdn.net/u010002184/article/details/112810744)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值