Hive如何在创建表时指定存储格式

1、TextFile
Hive数据表的默认格式,存储方式:行存储。
可以使用Gzip压缩算法,但压缩后的文件不支持split
在反序列化过程中,必须逐个字符判断是不是分隔符和行结束符,因此反序列化开销会比SequenceFile高几十倍。

create table if not exists textfile_table(
site string,
url  string,
pv   bigint,
label string)
row format delimited
fields terminated by '\t'
stored as textfile;

2、Sequence Files
压缩数据文件可以节省磁盘空间,但Hadoop中有些原生压缩文件的缺点之一就是不支持分割。支持分割的文件可以并行的有多个mapper程序处理大数据文件,大多数文件不支持可分割是因为这些文件只能从头开始读。Sequence File是可分割的文件格式,支持Hadoop的block级压缩。
Hadoop API提供的一种二进制文件,以key-value的形式序列化到文件中。存储方式:行存储。
sequencefile支持三种压缩选择:NONE,RECORD,BLOCK。Record压缩率低,RECORD是默认选项,通常BLOCK会带来较RECORD更好的压缩性能。
优势是文件和hadoop api中的MapFile是相互兼容的

create table if not exists seqfile_table(
site string,
url  string,
pv   bigint,
label string)
row format delimited
fields terminated by '\t'
stored as sequencefile;

3 RCFile
存储方式:数据按行分块,每块按列存储。结合了行存储和列存储的优点:
首先,RCFile 保证同一行的数据位于同一节点,因此元组重构的开销很低
其次,像列存储一样,RCFile 能够利用列维度的数据压缩,并且能跳过不必要的列读取
数据追加:RCFile不支持任意方式的数据写操作,仅提供一种追加接口,这是因为底层的 HDFS当前仅仅支持数据追加写文件尾部。
行组大小:行组变大有助于提高数据压缩的效率,但是可能会损害数据的读取性能,因为这样增加了 Lazy 解压性能的消耗。而且行组变大会占用更多的内存,这会影响并发执行的其他MR作业。 考虑到存储空间和查询效率两个方面,Facebook 选择 4MB 作为默认的行组大小,当然也允许用户自行选择参数进行配置。

create table if not exists rcfile_table(
site string,
url  string,
pv   bigint,
label string)
row format delimited
fields terminated by '\t'
stored as rcfile;

4 ORCFile
存储方式:数据按行分块,每块按照列存储。
压缩快,快速列存取。效率比rcfile高,是rcfile的改良版本。

create table if not exists orcfile_table(
site string,
url  string,
pv   bigint,
label string)
row format delimited
fields terminated by '\t'
stored as orc;

小结
TextFile默认格式,加载速度最快,可以采用Gzip进行压缩,压缩后的文件无法split,即并行处理。
SequenceFile压缩率最低,查询速度一般,将数据存放到sequenceFile格式的hive表中,这时数据就会压缩存储。三种压缩格式NONE,RECORD,BLOCK。是可分割的文件格式。
RCfile压缩率最高,查询速度最快,数据加载最慢。
相比TEXTFILE和SEQUENCEFILE,RCFILE由于列式存储方式,数据加载时性能消耗较大,但是具有较好的压缩比和查询响应。数据仓库的特点是一次写入、多次读取,因此,整体来看,RCFILE相比其余两种格式具有较明显的优势。
在hive中使用压缩需要灵活的方式,如果是数据源的话,采用RCFile+bz或RCFile+gz的方式,这样可以很大程度上节省磁盘空间;而在计算的过程中,为了不影响执行的速度,可以浪费一点磁盘空间,建议采用RCFile+snappy的方式,这样可以整体提升hive的执行速度。至于lzo的方式,也可以在计算过程中使用,只不过综合考虑(速度和压缩比)还是考虑snappy适宜。

相比TEXTFILE和SEQUENCEFILE,RCFILE由于列式存储方式,数据加载时性能消耗较大,但是具有较好的压缩比和查询响应。数据仓库的特点是一次写入、多次读取,因此,整体来看,RCFILE相比其余两种格式具有较明显的优势。

个人推荐:在一般的大数据开发过程中,使用ORC就可以。

  • 1
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 是的,创建表需要指定文件格式。在Hive中,可以通过使用“STORED AS”子句来指定的文件格式,例如: CREATE TABLE my_table ( col1 INT, col2 STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' STORED AS TEXTFILE; 上述示例创建了一个名为“my_table”的,并将其存储为文本文件格式。在创建表,还可以使用其他文件格式,如ORC、Parquet、Avro等。 ### 回答2: 在Hive创建表,可以选择是否指定文件格式Hive支持多种文件格式,如文本格式(TextFile)、序列文件格式(SequenceFile)、行列式存储文件格式(RCFile)等。默认情况下,如果不指定文件格式,则使用文本格式作为默认格式指定文件格式有一些好处。首先,不同的文件格式适用于不同的场景和需求。例如,文本格式适用于简单的文本数据,而序列文件格式适用于需要高效查询和压缩的大规模数据集。因此,在创建表选择合适的文件格式可以提高查询性能和节省存储空间。 其次,指定文件格式还可以方便数据的导入和导出。如果数据源是非文本格式,如压缩文件或其他数据库中的,使用相应的文件格式可以直接将数据导入到Hive中。同指定文件格式也可以灵活地将Hive的数据导出到其他系统或平台中。 总而言之,在Hive创建表可以选择是否指定文件格式,根据实际需求选择适合的格式可以提高查询性能、节省存储空间,并方便数据的导入和导出。 ### 回答3: 在Hive创建表,可以选择是否指定文件格式。如果没有明确指定文件格式Hive会根据默认的设置来处理数据文件。 Hive默认情况下支持多种文件格式,如文本格式(TextFile)、序列文件格式(SequenceFile)、Parquet格式、ORC格式等。因此,在创建表,可以根据实际需求选择合适的文件格式。 如果想要指定文件格式,可以使用“STORED AS”关键字,并在后面加上所需的文件格式。例如,可以使用以下语句在Hive中创建一个存储为Parquet格式: CREATE TABLE table_name ( column1 data_type, column2 data_type ) STORED AS PARQUET; 需要注意的是,指定文件格式不仅影响数据的存储方式,还会影响到数据的查询性能。不同的文件格式在数据的压缩、存储效率和查询速度上有所差异。因此,在选择文件格式,需要考虑到数据的读写需求以及系统的性能要求。 总之,在Hive创建表,可以选择是否指定文件格式,可以根据实际需求和性能要求来决定是否需要指定文件格式

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值