列式存储格式该如何选择?

写在前面

本文隶属于专栏《100个问题搞定大数据理论体系》,该专栏为笔者原创,引用请注明来源,不足和错误之处请在评论区帮忙指出,谢谢!

本专栏目录结构和文献引用请见100个问题搞定大数据理论体系

解答

大数据框架中常用的列式存储格式有Parquet和ORC。

ORC通常作为数据表的数据格式应用在Hive和Presto等计算引擎中,它们对ORC读写进行了优化;

而Parquet提供了非常易用的读写API,用户可在应用程序(比如Spark或Mapreduce等分布式程序)中直接读写 Parquet格式的文件。

一般情况下,如果不是为了支持ACID特性和使用Hive等框架,列式存储格式建议首选Parquet。毕竟Parquet被称为大数据时代存储格式的事实标准。

在这里插入图片描述

补充

Parquet和ORC对比

对比要素ParquetORC
现状Apache顶级项目,自描述的列式存储格式
主导公司Twitter/ClouderaHortonworks
开发语言Java(Impala提供了C++实现)Java/C++
列编码支持多种编码,包括RLE、 delta、字典编码等与 Parquet类似
嵌套式结构通过与嵌套式数据模型Protobuf、Thrift、Avro等适配,完美支持嵌套式结构使用Hive复杂数据结构,比如通过list、 struct、map等实现嵌套嵌套层数较多时过于烦琐。
ACID不支持支持粗粒度ACID
索引支持Row Group/Chunk/Page级别索引支持File/Stripe/Row级别索引
支持的计算引擎Hive、Presto、Impala和Spark等Hive、 Presto和 Spark等
查询性能据Netflix公布的测试结果,ORC稍高
压缩能力一般情况下,ORC能达到更高的压缩比,同等规模数据占用的磁盘空间更小

Parquet

详情请见我的另一篇博客——Parquet是什么

ORC

详情请见我的另一篇博客——ORCFile是什么?

  • 14
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 23
    评论
Hive是一种用于在大数据环境中进行查询和分析的开源数据仓库解决方案。在Hive中,选择合适的存储格式对于查询性能和数据存储优化非常重要。 Hive支持多种存储格式,包括文本格式、序文件格式、ORC格式和Parquet格式等。不同的存储格式对于数据的存储效率、压缩率和查询性能都有一定影响。 首先,文本格式是最基本的存储格式,它简单易用,但是不适合大规模数据存储和查询,因为它没有压缩和索引功能,查询性能会受到限制。 其次,序文件格式是Hadoop默认的文件格式,它支持压缩和可切分,能够提高存储空间利用率和查询性能。 ORC(Optimized Rowe Columnar)格式是一种基于列式存储的高效存储格式,它能够提供更好的压缩比和查询性能,尤其适用于大规模数据仓库中的分析查询工作负载。 最后,Parquet格式也是一种列式存储格式,它具有更好的查询性能和压缩比,支持高级查询和分析操作。 在选择存储格式时,需要综合考虑数据类型、数据量、查询性能和存储空间等因素。如果数据量较小,可以选择文本格式或序文件格式;对于大规模数据存储和分析场景,推荐选择ORC或Parquet格式。 此外,可以通过调整Hive的配置参数来进一步优化存储格式选择,如选择适当的压缩算法、压缩级别和数据切分方式等。通过合理选择和配置存储格式,可以提高Hive查询性能、降低存储成本,并获得更好的用户体验。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 23
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值