大数据之Hive实践分享之存储和压缩问题的详解

33 篇文章 0 订阅
33 篇文章 0 订阅

给大家分享一篇关于Hive实践分享之存储和压缩的坑详解,首先大多数同学在学习大数据技术的过程中,Hive是非常重要的技术之一,但我们在项目上经常会遇到一些存储和压缩的坑,本文通过大数据的武老师整理,分享给大家。

扣丁学堂大数据培训之Hive实践分享之存储和压缩问题的详解

大家都知道,由于集群资源有限,我们一般都会针对数据文件的「存储结构」和「压缩形式」进行配置优化。在我实际查看以后,发现集群的文件存储格式为Parquet,一种列式存储引擎,类似的还有ORC。而文件的压缩形式为Snappy。具体的操作形式如下:

①创建Parquet结构的表(Hive0.13andlater):

②确认表的文件存储格式:

结果输出如下

③创建Snappy压缩格式的Parquet结构的表(待考察):

或,写入时

回到最初的问题,如果是按Snappy压缩的格式,这份用户行为数据没办法分析了,因此有两种办法去解决:

①安装Snappy的解压工具

可自行百度,由于没有权限,所以这条路行不通;

②更改数据的压缩格式可以

最初我试了一下更改Parquet格式表的压缩格式,但是没有用!因为我最后是需要将查询数据导出到本地文件系统,如下语句所示:

所以,通过这样的形式得到的数据,压缩格式依然是.Snappy。因此,这里就需要配置Hive执行过程中的中间数据和最终数据的压缩格式。

如MapReduce的shuffle阶段对mapper产生的中间结果数据压缩:

如对最终生成的Hive表的数据压缩:

这里,我们要设置结果表数据的压缩格式,语句如下:

最终的结果就是.gz的压缩格式

最后,我们直接下载到电脑本地,直接解压就可以通过Excel分析用户行为路径数据了。从Hive应用层的角度来说,关于数据文件的「存储结构」和「压缩形式」,这两个点我们不需要关心,只是在导出数据的时候需要结合文件大小,以及数据类型去设置合适的压缩格式。不过从Hive底层维护的角度来说,涉及到各种各样的「存储结构」和「压缩形式」,都需要开发者去研究和调整,这样才能保证集群上的文件在「时间」和「空间」上相对平衡。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值