hive的压缩配置


在数据量特别大的情况下,数据来自hive的MapReduce查询,
发现效率特别慢在hive上使用insert overwrite local  directory "XXX" select将数据导入到本地的HDFS上时直接报错,
那么我那么就需要在hive和hadoop上配置压缩方式

在执行hive的类sql语句之前,需开启一下配置
2.对hive开启以下配置

设置开启hive的压缩
set hive.exec.compress.output=true;  

设置开启mapreduce的压缩

set  mapreduce.output.fileoutputformat.compress=true;

配置reduce输出使用的压缩类型默认的是RECORD
set mapreduce.output.fileoutputformat.compress.type=BLOCK;

配置压缩算法如果是需要效率的话建议使用 Cloudera的org.apache.hadoop.io.compress.SnappyCodec算法
set mapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.GzipCodec;  

对map阶段进行配置
set mapreduce.map.output.compress=true;  
配置压缩算法如果是需要效率的话建议使用 Cloudera的org.apache.hadoop.io.compress.SnappyCodec算法
set mapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.GzipCodec;

1.对hadoop的core-site.xml配置如下
<property>  
    <name>io.compression.codecs</name>  
    <value>org.apache.hadoop.io.compress.GzipCodec,
    org.apache.hadoop.io.compress.DefaultCodec,
    org.apache.hadoop.io.compress.BZip2Codec
    </value>  
</property>

还可以添加如下配置
org.apache.hadoop.io.compress.GzipCodec,
org.apache.hadoop.io.compress.Lz4Codec,
com.hadoop.compression.lzo.LzopCodec

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值