hive 表存储大小_hive 压缩和存储

hadoop checknative:查看hadoop支持的压缩类型

一、开启Map输出阶段压缩

开启map输出阶段压缩可以减少job中map和Reduce task间数据传输量

1.查看Hadoop支持的压缩方式

set io.compression.codecs;

1.开启hive中间传输数据压缩功能

set hive.exec.compress.intermediate=true;

2.开启mapreduce中map输出压缩功能

set mapreduce.map.output.compress=true;

3.设置mapreduce中map输出数据的压缩方式

set mapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.SnappyCodec;

4.执行查询语句

select count(*) name from table;

二、开启Reduce输出阶段压缩

1.开启hive最终输出数据压缩功能

set hive.exec.compress.output=true;

2.开启mapreduce最终输出数据压缩

set mapreduce.output.fileoutputformat.compress=true;

3.设置mapreduce最终数据输出压缩方式

set mapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.SnappyCodec;

4.设置mapreduce最终数据输出压缩为块压缩

set mapreduce.output.fileoutputformat.compress.type=BLOCK;

5.测试一下输出结果是否是压缩文件

insert overwrite local directory '/usr/hive/warehouse/xxx/test_snappy' select * from table;

三、文件存储格式

Hive支持的存储数的格式主要有:TEXTFILE 、SEQUENCEFILE、ORC、PARQUET。

TEXTFILE和SEQUENCEFILE的存储格式都是基于行存储的;

ORC和PARQUET是基于列式存储的。

1、创建一个SNAPPY压缩的ORC存储方式

row format delimited fields terminated by '\t'

stored as orc

LOCATION '/usr/hive/warehouse/ods/xxx/xx_orc'

tblproperties ("orc.compress"="SNAPPY");

2、向表中加载数据

insert overwrite table table_orc select * from table;

3、查看表中数据大小

hadoop fs -du -h /usr/hive/warehouse/xx;

4、存储文件的压缩比总结:

ORC > Parquet > textFile

5、存储方式和压缩总结:

hive表的数据存储格式一般选择:orc或parquet。

压缩方式一般选择snappy,lzo。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值