hive优化

0 篇文章 0 订阅

hive优化:
1、将大表放在后头
hive假定查询中最后一个表是大表,它会将其他表缓存起来然后扫描最后那个表。
因此通常需要将小表放前面,或者标记哪张表是大表:/streamtable(table_name)/

2、使用相同的连接键
当对三个或者更多个表进行join连接时,如果每个on子句都使用相同的连接键的话,那么只会产生一个mapreduce job

3、尽量早的过滤数据
减少每个阶段的数据量,对于分区表要加分区,同时只选择需要使用到的字段。

4、尽量原子化操作
尽量避免一个sql包含复杂逻辑,可以使用中间表来完成复杂的逻辑

order by :对查询结果进行全局排序,消耗时间长,需要set hive.mapred.mode=nostrict
sort by:局部排序,并非全局有序,提高效率

5、limit语句快速出结果
一般情况下,limit语句还是需要执行整个查询语句,然后再返回部分结果
有一个配置属性可以开启,避免这种情况,–对数据源进行抽样
hive.limit.optimize.enable=true --开启对数据源进行采样的功能
hive.limit.row.max.size --设置最小的采样容量
hive.limit.optimize.limit.file --设置最大的采样样本数
缺点:有可能部分数据永远不会被处理到

6、本地模式
对于小数据集,为查询出发执行任务小号的时间>实际执行job的时间,因此可以通过本地模式,在单台机器上(或者某些时候在单个进程上)处理所有的任务
–set oldjobtracker = ${hiveconf:mapred.job.tracker};

–set mapred.job.tracker=local;

–set marped.tmp.dir=/home/edward/tmp; sql语句 set mapred.job.tracker=${oldjobtracker};

–可以通过设置属性hive.exec.mode.local.auto的值为true 来让hive在适当的时候自动启动这个优化,也可以将这个配置写在
$HOME/.hiverc文件中
–当一个job满足如下条件才能真早使用本地模式:
1、job的输入数据大小必须小于参数:hive.exec.mode.local.auto.inputbytes.max(默认128m)
2、job的map数必须小于参数:hive.exec.mode.local.auto.tasks.max(默认4)
3、job的reduce数必须为0或者1
可用参数hive.mapred.local.mem(默认0)控制child jvm使用的最大内存数

7、并行执行
hive会将一个查询转化为一个或多个阶段,包括mapreduce阶段,抽样阶段,合并阶段,limit阶段等。
默认情况下,一次只执行一个阶段,不过如果某些阶段不是互相依赖,是可以并行执行的。
set hive.exec.parallel=true 可以开启并发执行。
set hive.exec.parallel.thread.number=16;//同一个sql允许最大并行度,默认为8
会比较消耗系统资源

8、调整mapper和reducer的个数
1、map阶段优化:
map个数的主要决定因素有:input的文件总个数,input的文件大小,集群设置的文件块大小(默认128m,不可自定义)
举例:
a) 假设input目录下有1个文件a,大小为780M,那么hadoop会将该文件a分隔成7个块(6个128m的块和1个12m的块)从而产生
7个map数
b) 假设input目录下有3个文件a,b,c,大小分别为10m,20m,130m,那么hadoop会分隔成4个块(10m,20m,128m,2m)从而产生
4个map数,就是说,如果文件大于块大小(128m),那么会拆分,如果小于块大小,则把该文件当成一个块。
map执行时间:map任务启动和初始化的时间+逻辑处理的时间。
1)减少map数
若有大量小文件(小于128m)会产生多个map,处理方法是:
set mapred.max.split.size=100000000; set mapred.min.split.size.per.node=100000000;
set mapred.min.split.size.per.rack=100000000;
–前面三个参数确定合并文件块的大小,文件块大于128的按照128来分割,小于128的按照100来分割,小于100的(包括小文件和分割大文件剩下的)进行合并
set hive.input.format = org.apache.hadoop.hive.ql.io.ConbineHiveInputFormat;–执行前进行小文件合并
2)增加map数
当input的文件都很大,任务逻辑复杂,map执行非常慢的时候,可以考虑增加map数,来使得每个map处理的数据量减少。从而提高任务的执行效率.
set mapred.reduce.tasks=?

2、Reduce阶段优化
调整方式:
–set mapred.reduce.tasks=?
–set hive.exec.reducers.bytes.reducer=?
一般根据输入文件的总大小,用它的estimation函数来自动计算reduce的个数:reduce个数=InputFileSize/bytes per reducer

9、严格模式
set hive.mapred.mode=strict–防止用户执行那些可能意想不到的不好的影响的查询
–分区表,必须选定分区范围。
–对于使用order by的查询,要求必须使用limit语句,因为order by为了执行排序过程会将所有的结果数据分发到同一个reducer中进行处理
–限制笛卡尔积查询:两张表Join时必须有on语句

10 数据倾斜
表现:任务进度长时间维持在99%(或者100%)查看任务监控页面,发现只有少量(1个或者几个)reduce子任务未完成。
因为其处理的数据量和其他reduce差异过大。
单一reduce的记录数与平均记录数差异过大,通常可能达到3倍甚至更多,最长时长远大于平均时长
原因:
key分布不均匀
业务数据本身的特性
建表时考虑不周
某些sql语句本身就有数据倾斜

join:
情形:其中一个表较小,但是key集中,
后果:分发到某一个或者几个reduce上的数据远高于平均值

情形: 大表与大表,但是分桶的判断字段0值或者空值过多
后果:这些空值都由一个reduce处理,非常慢

group by
情形:group by维度过小,某值的数量过多。
后果:处理某值的reduce非常耗时

count distinct
情形:某特殊值过多。
后果:处理此特殊值reduce耗时。

解决方案:参数调节:hive.map.aggr=true

参考:https://www.cnblogs.com/sandbank/p/6408762.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值