干货奉上~ 多多收藏多多转发
参数优化
hive/spark | 参数 | 说明 | 备注 |
---|---|---|---|
hive | set hive.exec.dynamic.partition.mode=nonstrict | 开启动态分区 | xxx |
hive | set hive.exec.dynamic.partition=true | 开启动态分区 | xxx |
hive | set hive.exec.max.dynamic.partitions = 1000 | 分区数 | xxx |
hive | set hive.exec.parallel = true | 无关子查询 可以并行 | xxx |
hive | set hive.auto.convert.join=true | xxx | xxx |
hive | set hive.mapjoin.smalltable.filesize=300000000 | xxx | xxx |
hive | set hive.auto.convert.join.noconditionaltask=true | xxx | xxx |
hive | set hive.auto.convert.join.noconditionaltask.size=300000000 | xxx | xxx |
hive | set mapreduce.reduce.memory.mb=8192 | 内存相关设置 | xxx |
hive | set mapreduce.reduce.java.opts=-Xmx7372m | Java 程序可以使用的最大堆内存数 | xxx |
hive | set hive.exec.compress.intermediate=true | 中间过程压缩设置 | xxx |
hive | set hive.intermediate.compression.codec=org.apache.hadoop.io.compress.SnappyCodec | 控制hive的查询中间结果是否进行压缩,同上条配置,默认不压缩false | xxx |
hive | set mapred.compress.map.output = true | 对map任务输出进行压缩 | 压缩设置 |
hive | set mapred.output.compress = true | 压缩输出 | 压缩设置 |
hive | set hive.exec.compres |