深入浅出学Hive:Hive参数

第一部分:Hive 参数

hive.exec.max.created.files

•说明:所有hive运行的map与reduce任务可以产生的文件的和

•默认值:100000 

hive.exec.dynamic.partition

•说明:是否为自动分区

•默认值:false

hive.mapred.reduce.tasks.speculative.execution

•说明:是否打开推测执行

•默认值:true

hive.input.format

•说明:Hive默认的input format

•默认值: org.apache.hadoop.hive.ql.io.CombineHiveInputFormat

•如果有问题可以使用org.apache.hadoop.hive.ql.io.HiveInputFormat

hive.exec.counters.pull.interval

•说明:Hive与JobTracker拉取counter信息的时间

•默认值:1000ms 

hive.script.recordreader

•说明:使用脚本时默认的读取类

•默认值: org.apache.hadoop.hive.ql.exec.TextRecordReader

hive.script.recordwriter

•说明:使用脚本时默认的数据写入类

•默认值: org.apache.hadoop.hive.ql.exec.TextRecordWriter

hive.mapjoin.check.memory.rows

•说明: 内存里可以存储数据的行数

•默认值: 100000

hive.mapjoin.smalltable.filesize

•说明:输入小表的文件大小的阀值,如果小于该值,就采用普通的join

•默认值: 25000000

hive.auto.convert.join

•说明:是不是依据输入文件的大小,将Join转成普通的Map Join

•默认值: false

hive.mapjoin.followby.gby.localtask.max.memory.usage

•说明:map join做group by 操作时,可以使用多大的内存来存储数据,如果数据太大,则不会保存在内存里

•默认值:0.55

hive.mapjoin.localtask.max.memory.usage

•说明:本地任务可以使用内存的百分比

•默认值: 0.90

hive.heartbeat.interval

•说明:在进行MapJoin与过滤操作时,发送心跳的时间

•默认值1000

hive.merge.size.per.task

•说明: 合并后文件的大小

•默认值: 256000000

hive.mergejob.maponly

•说明: 在只有Map任务的时候 合并输出结果

•默认值: true

hive.merge.mapredfiles

•默认值: 在作业结束的时候是否合并小文件

•说明: false

hive.merge.mapfiles

•说明:Map-Only Job是否合并小文件

•默认值:true

hive.hwi.listen.host

•说明:Hive UI 默认的host

•默认值:0.0.0.0

hive.hwi.listen.port

•说明:Ui监听端口

•默认值:9999

hive.exec.parallel.thread.number

•说明:hive可以并行处理Job的线程数

•默认值:8

hive.exec.parallel

•说明:是否并行提交任务

•默认值:false

hive.exec.compress.output

•说明:输出使用压缩

•默认值: false

hive.mapred.mode

•说明: MapReduce的操作的限制模式,操作的运行在该模式下没有什么限制

•默认值: nonstrict

hive.join.cache.size

•说明: join操作时,可以存在内存里的条数

•默认值: 25000

hive.mapjoin.cache.numrows

•说明: mapjoin 存在内存里的数据量

•默认值:25000

hive.join.emit.interval

•说明: 有连接时Hive在输出前,缓存的时间

•默认值: 1000

hive.optimize.groupby

•说明:在做分组统计时,是否使用bucket table

•默认值: true

hive.fileformat.check

•说明:是否检测文件输入格式

•默认值:true

hive.metastore.client.connect.retry.delay

•说明: client 连接失败时,retry的时间间隔

•默认值:1秒

hive.metastore.client.socket.timeout

•说明:  Client socket 的超时时间

•默认值:20秒

mapred.reduce.tasks

•默认值:-1

•说明:每个任务reduce的默认值

 -1 代表自动根据作业的情况来设置reduce的值 

hive.exec.reducers.bytes.per.reducer

•默认值: 1000000000 (1G)

•说明:每个reduce的接受的数据量

    如果送到reduce的数据为10G,那么将生成10个reduce任务 

hive.exec.reducers.max

•默认值:999

•说明: reduce的最大个数      

hive.exec.reducers.max

•默认值:999

•说明: reduce的最大个数

hive.metastore.warehouse.dir

•默认值:/user/hive/warehouse

•说明: 默认的数据库存放位置

hive.default.fileformat

•默认值:TextFile

•说明: 默认的fileformat

hive.map.aggr

•默认值:true

•说明: Map端聚合,相当于combiner

hive.exec.max.dynamic.partitions.pernode

•默认值:100

•说明:每个任务节点可以产生的最大的分区数

hive.exec.max.dynamic.partitions

•默认值:1000

•说明: 默认的可以创建的分区数

hive.metastore.server.max.threads

•默认值:100000

•说明: metastore默认的最大的处理线程数

hive.metastore.server.min.threads

•默认值:200

•说明: metastore默认的最小的处理线程数

 

转载请注明出处【 http://sishuok.com/forum/blogPost/list/0/6225.html

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 无法解决 org.apache.hive:hive-exec:2.3.7 的问题可能有以下几种原因: 1. 版本不兼容:可能当前项目使用的其他依赖库与 org.apache.hive:hive-exec:2.3.7 的版本不兼容。检查一下你使用的所有依赖库,并确保它们与 Hive 的版本兼容。尝试使用与 Hive 相对应的依赖库版本或者升级 Hive 到与你的依赖库版本兼容的版本。 2. 依赖库配置错误:可能在你的项目配置文件(如 pom.xml 或 build.gradle)中没有正确引入 org.apache.hive:hive-exec:2.3.7 依赖库。检查一下你的配置文件,并确保已经正确引入了 Hive 的相关依赖库。如果配置文件中没有该依赖库,尝试添加它到你的配置文件中。 3. 仓库访问问题:如果你使用的依赖库存储在远程仓库中,可能出现了无法访问该仓库的问题。检查一下你的网络连接,并确保可以正常访问依赖库所在的仓库。如果访问受限制,可以尝试使用代理服务器或者更改依赖库的存储位置,例如将其下载到本地并通过本地路径引用。 4. Maven/Gradle 配置问题:如果你使用的是 Maven 或 Gradle 进行构建项目,可能出现了配置问题。检查一下你的构建工具的配置文件,确保已正确设置了仓库地址、依赖库的坐标和版本等信息。如果配置错误,尝试重新配置或参考官方文档以获取正确的配置。 如果以上方法都无法解决 org.apache.hive:hive-exec:2.3.7 的问题,可能需要进一步排查具体错误信息或查找其他人是否遇到了相似的问题。 ### 回答2: 无法解析 org.apache.hive:hive-exec:2.3.7 的原因有多种可能。以下是一些常见的解决方法: 1. 检查是否将正确的 Maven 仓库添加到项目的配置文件中。您可以在项目的pom.xml文件中添加 Hive 依赖项。确保将 Maven 中央仓库添加到配置文件中,以便从中央仓库下载依赖项。 2. 检查网络连接是否正常。如果您的网络连接存在问题,可能无法连接到依赖项所在的 Maven 仓库。确保您的网络连接正常,然后尝试重新构建项目。 3. 检查您正在使用的 Maven 版本是否与项目中指定的依赖项版本不兼容。尝试更新 Maven 版本,并确保使用的 Maven 版本与项目中的依赖项版本兼容。 4. 如果您正在使用的是私有 Maven 仓库,请确保正确配置了仓库的 URL 和凭据信息。有时候,无法解析依赖项是由于未正确配置私有仓库的原因导致的。 5. 检查您本地的 Maven 仓库是否已正确下载和缓存所需依赖项。如果 Maven 仓库中缺少所需的 Hive 依赖项,那么将无法解析该依赖项。您可以尝试删除本地 Maven 仓库中与 Hive 相关的文件,然后重新构建项目以重新下载依赖项。 如果上述方法都无法解决问题,您可能需要进一步检查您的项目配置和环境设置。您还可以搜索相关错误信息和日志,以获得更多关于无法解析依赖项的原因和解决方法的信息。 ### 回答3: 无法解析org.apache.hive:hive-exec:2.3.7的问题可能涉及以下几个方面: 1. 依赖库未添加或版本不正确:检查项目的依赖配置文件中是否添加了org.apache.hive:hive-exec:2.3.7的依赖,如果已添加,请确认版本是否正确。可以尝试通过更新或更换依赖版本来解决问题。 2. 仓库地址或网络连接问题:检查项目的仓库地址是否配置正确,并确认网络连接正常。如果仓库地址无误且网络正常,可能是由于仓库服务器问题导致无法解析依赖库。可以尝试更换其他仓库地址或稍后再次尝试解析。 3. 代理配置问题:如果项目处于代理环境中,需要确保代理配置正确。检查maven的settings.xml文件中的代理配置是否正确,并确认代理服务器的可用性。 4. 本地maven仓库损坏:如果本地maven仓库损坏或缺少相应的依赖库,也可能导致无法解析依赖。可以尝试清理本地maven仓库,并重新下载依赖库。 总之,无法解析org.apache.hive:hive-exec:2.3.7的问题通常是由于依赖配置问题、仓库地址或网络连接问题、代理配置问题、本地maven仓库损坏等原因引起的。根据具体情况逐一排查并解决相应问题,可以解决这个问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值