【hive】hive的数据格式介绍

textfile
sequencefile
rcfile
avro
自定义 
TEXTFIEL
默认格式,数据不做压缩,磁盘开销大,数据解析开销大。
可结合Gzip、Bzip2使用(系统自动检查,执行查询时自动解压),但使用这种方式,hive不会对数据进行切分,从而无法对数据进行并行操作。
  1. > create table test1(str STRING)
  2. > STORED AS TEXTFILE;
  3. OK
  4. Time taken: 0.786 seconds
  5. #写脚本生成一个随机字符串文件,导入文件:
  6. > LOAD DATA LOCAL INPATH ’/home/work/data/test.txt’ INTO TABLE test1;
  7. Copying data from file:/home/work/data/test.txt
  8. Copying file: file:/home/work/data/test.txt
  9. Loading data to table default.test1
  10. OK
  11. Time taken: 0.243 seconds

SEQUENCEFILE:
SequenceFile是Hadoop API提供的一种二进制文件支持,其具有使用方便、可分割、可压缩的特点。
SequenceFile支持三种压缩选择:NONE, RECORD, BLOCK。 Record压缩率低,一般建议使用BLOCK压缩。
  1. > create table test2(str STRING)
  2. > STORED AS SEQUENCEFILE;
  3. OK
  4. Time taken: 5.526 seconds
  5. hive> SET hive.exec.compress.output=true;
  6. hive> SET io.seqfile.compression.type=BLOCK;
  7. hive> INSERT  OVERWRITE  TABLE test2 SELECT * FROM test1;


RCFILE
RCFILE是一种行列存储相结合的存储方式。首先,其将数据按行分块,保证同一个record在一个块上,避免读一个记录需要读取多个block。其次,块数据列式存储,有利于数据压缩和快速的列存取。RCFILE文件示例:

  1. > create table test3(str STRING)
  2. > STORED AS RCFILE;
  3. OK
  4. Time taken: 0.184 seconds
  5. >   INSERT  OVERWRITE TABLE test3 SELECT * FROM test1;
自定义格式
当用户的数据文件格式不能被当前 Hive 所识别的时候,可以自定义文件格式。
用户可以通过实现inputformat和outputformat来自定义输入输出格式,参考代码:
.\hive-0.8.1\src\contrib\src\java\org\apache\hadoop\hive\contrib\fileformat\base64
实例:
建表

  1. > create table test4(str STRING)
  2. > stored as
  3. > inputformat ’org.apache.hadoop.hive.contrib.fileformat.base64.Base64TextInputFormat’
  4. > outputformat ’org.apache.hadoop.hive.contrib.fileformat.base64.Base64TextOutputFormat’;

$ cat test1.txt
aGVsbG8saGl2ZQ==
aGVsbG8sd29ybGQ=
aGVsbG8saGFkb29w

test1文件为base64编码后的内容,decode后数据为:

hello,hive
hello,world
hello,hadoop
load数据并查询:

  1. hive> LOAD DATA LOCAL INPATH ’/home/work/test1.txt’ INTO TABLE test4;
  2. Copying data from file:/home/work/test1.txt
  3. Copying file: file:/home/work/test1.txt
  4. Loading data to table default.test4
  5. OK
  6. Time taken: 4.742 seconds
  7. hive> select * from test4;
  8. OK
  9. hello,hive
  10. hello,world
  11. hello,hadoop
  12. Time taken: 1.953 seconds
AVRO
在https://issues.apache.org/jira/browse/HIVE-895 支持hive(0.10.0)
Avro是一种用于支持数据密集型的二进制文件格式。它的文件格式更为紧凑,若要读取大量数据时,Avro能够提供更好的序列化和反序列化性能。并且Avro数据文件天生是带Schema定义的,所以它不需要开发者在API 级别实现自己的Writable对象。最近多个Hadoop 子项目都支持Avro 数据格式,如Pig 、Hive、Flume、Sqoop和Hcatalog。

图3:Avro MR 文件格式

总结:
相比TEXTFILE和SEQUENCEFILE,RCFILE由于列式存储方式,数据加载时性能消耗较大,但是具有较好的压缩比和查询响应。数据仓库的特点是一次写入、多次读取,因此,整体来看,RCFILE相比其余两种格式具有较明显的优势。

文件存储大小比较与分析

我们选取一个TPC-H标准测试来说明不同的文件格式在存储上的开销。因为此数据是公开的,所以读者如果对此结果感兴趣,也可以对照后面的实验自行做一遍。Orders 表文本格式的原始大小为1.62G。 我们将其装载进Hadoop 并使用Hive 将其转化成以上几种格式,在同一种LZO 压缩模式下测试形成的文件的大小。

 

Orders_text1 1732690045 1.61G 非压缩 TextFile
Orders_tex2 772681211 736M LZO压缩 TextFile
Orders_seq1 1935513587 1.80G 非压缩 SequenceFile
Orders_seq2 822048201 783M LZO压缩 SequenceFile
Orders_rcfile1 1648746355 1.53G 非压缩 RCFile
Orders_rcfile2 686927221 655M LZO压缩 RCFile
Orders_avro_table1 1568359334 1.46G 非压缩 Avro
Orders_avro_table2 652962989 622M LZO压缩 Avro
其他资料:
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值