Hadoop图像压缩

Hadoop图像解压缩

       Hadoop云平台可以完成 对海量图像数据的处理,其主要考虑到压缩速度和压缩图像的可分割性。
       压缩算法主要从时间和速度上进行权衡,更快的压缩和解压缩速度会占用更多的存储空间。Hadoop实现对文件的压缩主要先考虑到文件的可分割性,其次,利用mapduce并行算法实现对文件并行压缩。
        压缩文件的可分割性,例如我们在对HDFS中640M的文本文件进行处理,当前的HDFS数据块的大小为64M时,该文件被分为10块,对应的Mapreduce作业将文件分成10个输入分片,提供10个独立的map任务进行处理。同样在对压缩文件进行分片时,要考虑到Hadoop是否支持对压缩文件的可分割。例如如果该文件是一个gzip的格式的压缩文件(其大小不变),不能进行分割,因为Hadoop不能从gzip的数据流中的某个点开始进行数据的解压,如果是一个zip类型的文件,即可实现对文件的解压,因为Hadoop支持zip压缩文件的分割。

  Hadoop为支持文件分割引入了编码/解码器 在 Hadoop的实现中,数据编码器
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值