影响Mapper的数量
1)文件数量
2)文件大小,根据下面参数进行切割
set mapred.max.split.size=128000000
影响Reducer数量
mapred.reduce.tasks(强制指定reduce的任务数量)
hive.exec.reducers.bytes.per.reducer(每个reduce任务处理的数据量,默认为1000^3=1G)
hive.exec.reducers.max(每个任务最大的reduce数,默认为999)
计算reducer数的公式很简单N=min( hive.exec.reducers.max ,总输入数据量/ hive.exec.reducers.bytes.per.reducer )
Join优化
1、多表Join时,大表放在最后,小表在前
2、小表使用MapJoin
小于25M的表转为MapJoin,参数调整:
set hive.mapjoin.smalltable.filesize=25000000
set hive.auto.convert.join=true; 默认开启
Group By优化
如果出现数据倾斜,应当做如下处理:
set hive.exec.reducers.max=200;
set mapred.reduce.tasks= 200;
—增大Reduce个数
set hive.groupby.mapaggr.checkinterval=100000 ;
—这个是group的键对应的记录条数超过这个值则会进行分拆,值根据具体数据量设置
set hive.groupby.skewindata=true;
–如果是group by过程出现倾斜 应该设置为true
set hive.skewjoin.key=100000;
–这个是join的键对应的记录条数超过这个值则会进行分拆,值根据具体数据量设置
set hive.optimize.skewjoin=true;
–如果是join 过程出现倾斜 应该设置为true
并行
hive.exec.parallel参数控制在同一个sql中的不同的job是否可以同时运行,默认为false.
在资源充足的时候hive.exec.parallel会让那些存在并发job的sql运行得更快,但同时消耗更多的资源