[Hive] - Hive参数含义详解

  hive中参数分为三类,第一种system环境变量信息,是系统环境变量信息;第二种是env环境变量信息,是当前用户环境变量信息;第三种是hive参数变量信息,是由hive-site.xml文件定义的以及当前hive会话定义的环境变量信息。其中第三种hive参数变量信息中又由hadoop hdfs参数(直接是hadoop的)、mapreduce参数、metastore元数据存储参数、metastore连接参数以及hive运行参数构成。


 

Hive-0.13.1-cdh5.3.6参数变量信息详解
参数默认值含义(用处)
datanucleus.autoCreateSchematruecreates necessary schema on a startup if one doesn't exist. set this to false, after creating it once;如果数据元数据不存在,那么直接创建,如果设置为false,那么在之后创建。
datanucleus.autoStartMechanismModecheckedthrow exception if metadata tables are incorrect;如果数据元信息检查失败,抛出异常。可选value: checked, unchecked
datanucleus.cache.level2falseUse a level 2 cache. Turn this off if metadata is changed independently of Hive metastore server; 是否使用二级缓存机制。
datanucleus.cache.level2.typeSOFTSOFT=soft reference based cache, WEAK=weak reference based cache, none=no cache.二级缓存机制的类型,none是不使用,SOFT表示使用软引用,WEAK表示使用弱引用。
datanucleus.connectionPoolingTypeBoneCPmetastore数据连接池使用。
datanucleus.fixedDatastorefalse 
datanucleus.identifierFactorydatanucleus1Name of the identifier factory to use when generating table/column names etc.创建metastore数据库的工厂类。
datanucleus.plugin.pluginRegistryBundleCheckLOGDefines what happens when plugin bundles are found and are duplicated [EXCEPTION|LOG|NONE]
datanucleus.rdbms.useLegacyNativeValueStrategytrue 
datanucleus.storeManagerTyperdbms元数据存储方式
datanucleus.transactionIsolationread-committed事务机制,Default transaction isolation level for identity generation.
datanucleus.validateColumnsfalsevalidates existing schema against code. turn this on if you want to verify existing schema,对于存在的表是否进行检查schema
datanucleus.validateConstraintsfalse对于存在的表是否检查约束
datanucleus.validateTablesfalse检查表
dfs.block.access.key.update.interval600 
hive.archive.enabledfalseWhether archiving operations are permitted;是否允许进行归档操作。
hive.auto.convert.jointrueWhether Hive enables the optimization about converting common join into mapjoin based on the input file size;是否允许进行data join 优化
hive.auto.convert.join.noconditionaltasktrue

Whether Hive enables the optimization about converting common join into mapjoin based on the input file size. If this parameter is on, and the sum of size for n-1 of the tables/partitions for a n-way join is smaller than the specified size, the join is directly converted to a mapjoin (there is no conditional task).针对没有条件的task,是否直接使用data join。

 hive.auto.convert.join.noconditionaltask.size 10000000 If hive.auto.convert.join.noconditionaltask is off, this parameter does not take affect. However, if it is on, and the sum of size for n-1 of the tables/partitions for a n-way join is smaller than this size, the join is directly converted to a mapjoin(there is no conditional task). The default is 10MB;如果${hive.auto.convert.join.noconditionaltask}设置为true,那么表示控制文件的大小值,默认10M;也就是说如果小于10M,那么直接使用data join。
 hive.auto.convert.join.use.nonstaged false For conditional joins, if input stream from a small alias can be directly applied to join operator without filtering or projection, the alias need not to be pre-staged in distributed cache via mapred local task. Currently, this is not working with vectorization or tez execution engine.对于有条件的数据join,对于小文件是否使用分布式缓存。
 hive.auto.convert.sortmerge.join false Will the join be automatically converted to a sort-merge join, if the joined tables pass   the criteria for sort-merge join.如果可以转换,自动转换为标准的sort-merge join方式。
hive.auto.convert.sortmerge.join.bigtable.selection.policyorg.apache.hadoop.hive.ql.optimizer.AvgPartitionSizeBasedBigTableSelectorForAutoSMJ 
 hive.auto.convert.sortmerge.join.to.mapjoin false 是否穿件sort-merge join到map join方式
 hive.auto.progress.timeout 0 How long to run autoprogressor for the script/UDTF operators (in seconds). Set to 0 for forever. 执行脚本和udtf过期时间,设置为0表示永不过期。
 hive.autogen.columnalias.prefix.includefuncname false hive自动产生的临时列名是否加function名称,默认不加
 hive.autogen.columnalias.prefix.label _c hive的临时列名主体部分
 hive.binary.record.max.length 1000 hive二进制记录最长长度
 hive.cache.expr.evaluation true If true, evaluation result of deterministic expression referenced twice or more will be cached. For example, in filter condition like ".. where key + 10 > 10 or key + 10 = 0" "key + 10" will be evaluated/cached once and reused for following expression ("key + 10 = 0"). Currently, this is applied only to expressions in select or filter operator. 是否允许缓存表达式的执行,默认允许;先阶段只缓存select和where中的表达式结果。
 hive.cli.errors.ignore false 
 hive.cli.pretty.output.num.cols -1 
 hive.cli.print.current.db false是否显示当前操作database名称,默认不显示
 hive.cli.print.header false是否显示具体的查询头部信息,默认不显示。比如不显示列名。
 hive.cli.prompt hive hive的前缀提示信息,,修改后需要重新启动客户端。
 hive.cluster.delegation.token.store.class org.apache.hadoop.hive.thrift.MemoryTokenStore hive集群委托token信息存储类
 hive.cluster.delegation.token.store.zookeeper.znode /hive/cluster/delegation hive zk存储
 hive.compactor.abortedtxn.threshold 1000 分区压缩文件阀值
 hive.compactor.check.interval 300 压缩间隔时间,单位秒
 hive.compactor.delta.num.threshold 10 子分区阀值
 hive.compactor.delta.pct.threshold 0.1 压缩比例
 hive.compactor.initiator.on false 
 hive.compactor.worker.threads 0 
 hive.compactor.worker.timeout 86400 单位秒
 hive.compat 0.12 兼容版本信息
 hive.compute.query.using.stats false 
 hive.compute.splits.in.am true 
 hive.conf.restricted.list hive.security.authenticator.manager,hive.security.authorization.manager 
 hive.conf.validation true 
 hive.convert.join.bucket.mapjoin.tez false 
 hive.counters.group.name HIVE 
 hive.debug.localtask false 
 hive.decode.partition.name false 
 hive.default.fileformat TextFile指定默认的fileformat格式化器。默认为textfile。
 hive.default.rcfile.serde org.apache.hadoop.hive.serde2.columnar.ColumnarSerDercfile对应的序列化类
 hive.default.serde org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe默认的序列化类
 hive.display.partition.cols.separately truehive分区单独的显示列名
 hive.downloaded.resources.dir /tmp/${hive.session.id}_resourceshive下载资源存储文件
 hive.enforce.bucketing false是否允许使用桶
 hive.enforce.bucketmapjoin false是否允许桶进行map join
 hive.enforce.sorting false是否允许在插入的时候使用sort排序。
 hive.enforce.sortmergebucketmapjoin false 
hive.entity.capture.transformfalse 
hive.entity.separator@Separator used to construct names of tables and partitions. For example, dbname@tablename@partitionname
hive.error.on.empty.partitionfalseWhether to throw an exception if dynamic partition insert generates empty results.当启用动态hive的时候,如果插入的partition为空,是否抛出异常信息。
hive.exec.check.crossproductstrue检查是否包含向量积
hive.exec.compress.intermediatefalse中间结果是否压缩,压缩机制采用hadoop的配置信息mapred.output.compress*
hive.exec.compress.outputfalse最终结果是否压缩
hive.exec.concatenate.check.indextrue 
hive.exec.copyfile.maxsize33554432 
hive.exec.counters.pull.interval1000 
hive.exec.default.partition.name__HIVE_DEFAULT_PARTITION__ 
hive.exec.drop.ignorenonexistenttrue当执行删除的时候是否忽略不存在的异常信息,默认忽略,如果忽略,那么会报错。
hive.exec.dynamic.partitiontrue是否允许动态指定partition,如果允许的话,那么我们修改内容的时候可以不指定partition的值。
hive.exec.dynamic.partition.modestrict动态partition模式,strict模式要求至少给定一个静态的partition值。nonstrict允许全部partition为动态的值。
hive.exec.infer.bucket.sortfalse 
hive.exec.infer.bucket.sort.num.buckets.power.twofalse 
hive.exec.job.debug.capture.stacktracestrue 
hive.exec.job.debug.timeout30000 
hive.exec.local.scratchdir/tmp/hadoop 
hive.exec.max.created.files100000在mr程序中最大创建的hdfs文件个数
hive.exec.max.dynamic.partitions1000动态分区的总的分区最大个数
hive.exec.max.dynamic.partitions.pernode100每个MR节点的最大创建个数
hive.exec.mode.local.autofalse是否允许hive运行本地模式
hive.exec.mode.local.auto.input.files.max4hive本地模式最大输入文件数量
hive.exec.mode.local.auto.inputbytes.max134217728hive本地模式组大输入字节数
hive.exec.orc.default.block.paddingtrue 
hive.exec.orc.default.buffer.size262144 
hive.exec.orc.default.compressZLIB 
hive.exec.orc.default.row.index.stride10000 
hive.exec.orc.default.stripe.size268435456 
hive.exec.orc.dictionary.key.size.threshold0.8 
hive.exec.orc.memory.pool0.5 
hive.exec.orc.skip.corrupt.datafalse 
hive.exec.orc.zerocopyfalse 
hive.exec.parallelfalse是否允许并行执行,默认不允许。
hive.exec.parallel.thread.number8并行执行线程个数,默认8个。
hive.exec.perf.loggerorg.apache.hadoop.hive.ql.log.PerfLogger 
hive.exec.rcfile.use.explicit.headertrue 
hive.exec.rcfile.use.sync.cachetrue 
hive.exec.reducers.bytes.per.reducer1000000000size per reducer.The default is 1G, i.e if the input size is 10G, it will use 10 reducers. 默认reducer节点处理数据的规模,默认1G。
hive.exec.reducers.max999reducer允许的最大个数。当mapred.reduce.tasks指定为负值的时候,该参数起效。
hive.exec.rowoffsetfalse 
hive.exec.scratchdir/etc/hive-hadoop 
hive.exec.script.allow.partial.consumptionfalse 
hive.exec.script.maxerrsize100000 
hive.exec.script.trustfalse 
hive.exec.show.job.failure.debug.infotrue 
hive.exec.stagingdir.hive-staging 
hive.exec.submitviachildfalse 
hive.exec.tasklog.debug.timeou20000 
hive.execution.enginemr执行引擎mr或者Tez(hadoop2)
hive.exim.uri.scheme.whitelisthdfs,pfile 
hive.explain.dependency.append.tasktypefalse 
hive.fetch.output.serdeorg.apache.hadoop.hive.serde2.DelimitedJSONSerDe 
hive.fetch.task.aggrfalse 
hive.fetch.task.conversionminimal 
hive.fetch.task.conversion.threshold-1 
hive.file.max.footer100 
hive.fileformat.checktrue 
hive.groupby.mapaggr.checkinterval100000 
hive.groupby.orderby.position.aliasfalse 
hive.groupby.skewindatafalse 
hive.hadoop.supports.splittable.combineinputformatfalse 
hive.hashtable.initialCapacity100000 
hive.hashtable.loadfactor0.75 
hive.hbase.generatehfilesfalse 
hive.hbase.snapshot.restoredir/tmp 
hive.hbase.wal.enabledtrue 
hive.heartbeat.interval1000 
hive.hmshandler.force.reload.conffalse 
hive.hmshandler.retry.attempts1 
hive.hmshandler.retry.interval1000 
hive.hwi.listen.host0.0.0.0 
hive.hwi.listen.port9999 
hive.hwi.war.filelib/hive-hwi-${version}.war 
hive.ignore.mapjoin.hinttrue 
hive.in.testfalse 
hive.index.compact.binary.searchtrue 
hive.index.compact.file.ignore.hdfsfalse 
hive.index.compact.query.max.entries10000000 
hive.index.compact.query.max.size10737418240 
hive.input.formatorg.apache.hadoop.hive.ql.io.CombineHiveInputFormat 
hive.insert.into.external.tablestrue 
hive.insert.into.multilevel.dirsfalse 
hive.jobname.length50 
hive.join.cache.size25000 
hive.join.emit.interval1000 
hive.lazysimple.extended_boolean_literalfalse 
hive.limit.optimize.enablefalse 
hive.limit.optimize.fetch.max50000 
hive.limit.optimize.limit.file10 
hive.limit.pushdown.memory.usage-1.0 
hive.limit.query.max.table.partition-1 
hive.limit.row.max.size100000 
hive.localize.resource.num.wait.attempts5 
hive.localize.resource.wait.interval5000 
hive.lock.manager org.apache.hadoop.hive.ql.lockmgr.zookeeper.ZooKeeperHiveLockManager 
 hive.mapred.partitioner org.apache.hadoop.hive.ql.io.DefaultHivePartitioner 
 hive.mapred.reduce.tasks.speculative.execution true 
hive.mapred.supports.subdirectoriesfalse 
hive.metastore.uristhrift://hh:9083 
hive.metastore.warehouse.dir/user/hive/warehouse 
hive.multi.insert.move.tasks.share.dependenciesfalse 
hive.multigroupby.singlereducertrue 
hive.zookeeper.clean.extra.nodesfalse在会话结束的时候是否清楚额外的节点数据
hive.zookeeper.client.port2181客户端端口号
hive.zookeeper.quorum zk的服务器端ip
hive.zookeeper.session.timeout600000zk的client端会话过期时间
hive.zookeeper.namespacehive_zookeeper_namespace 
javax.jdo.PersistenceManagerFactoryClassorg.datanucleus.api.jdo.JDOPersistenceManagerFactory 
javax.jdo.option.ConnectionDriverName改为:com.mysql.jdbc.Driver 
javax.jdo.option.ConnectionPassword改为:hive 
javax.jdo.option.ConnectionURLxxx 
javax.jdo.option.ConnectionUserNamexxx 
javax.jdo.option.DetachAllOnCommittrue 
javax.jdo.option.Multithreadedtrue 
javax.jdo.option.NonTransactionalReadtrue 

转载于:https://www.cnblogs.com/liuming1992/p/4930831.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值