控制速度 xml_BZip2Codec压缩、Reduce端压缩控制……Hadoop整合压缩知识点来了

5dadfd6a2a78c23fc9514f8309dad423.png

作者 | Tai_Park

责编 | Carol

来源 | CSDN 博客

封图 | CSDN付费下载于东方 IC

今天来聊聊 Hadoop 的压缩。

压缩:原始数据通过压缩手段产生目标数据,要求输入和输出的内容是一样的(大部分),但体积是不一样的。

对于单机用户来说,磁盘空间的限制导致了文件压缩的需求;对于Hadoop用户来说,由于DataNode的限制,也要对HDFS上的数据进行压缩。压缩的目的是减少存储在HDFS上的数据所占用的空间(磁盘的角度),提升网络的传输效率(网络的角度)。对于分布式计算框架来说,Shuffle是一个主要的技术瓶颈。

大数据处理流程基本上是输入==>处理==>输出,举例来说,在离线处理方面,Spark可以HDFS==>Spark==>HDFS,在实时处理方面,Spark Streaming可以Kafka==>Spark Streaming==>RDBMS。压缩可以使用在输入时,也可以使用在处理时(比如map作为中间状态,它的输出可以压缩以减少Shuffle的量),输出时。

MR在进行压缩数据处理时,不需要手工去处理。但是MR执行过程中,是需要一个动作进行数据压缩、解压的,MR根据后缀名进行处理。在处理压缩、解压的过程中,是有CPU资源的消耗的。如果集群本来CPU使用率很高,就会对其他作业产生影响,不建议使用压缩。

常见的压缩格式有GZIP、BZIP2、LZO、SNAPPY。选择压缩格式要从压缩比、压缩速度考虑。不同的压缩格式对应不同的codec。

764fe1246ec54f0c30f899e019dd9b6d.png

BZip2Codec压缩

package com.bigdata.compression;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.io.IOUtils;import org.apache.hadoop.io.compress.CompressionCodec;import org.apache.hadoop.io.compress.CompressionOutputStream;import org.apache.hadoop.util.ReflectionUtils;import java.io.File;import java.io.FileInputStream;import java.io.FileOutputStream;public class CompressionApp {    public static void main(String[] args) throws Exception{        String filename = "ip.txt";        String method = "org.apache.hadoop.io.compress.BZip2Codec";        compress(filename,method);    }    private static void compress(String filename, String method) throws Exception{        FileInputStream fis = new FileInputStream(new File(filename));        Class> codecClass = Class.forName(method);        CompressionCodec codec = (CompressionCodec) ReflectionUtils.newInstance(codecClass, new Configuration());        FileOutputStream fos = new FileOutputStream(new File(filename + codec.getDefaultExtension()));        CompressionOutputStream cos = codec.createOutputStream(fos);        IOUtils.copyBytes(fis,cos,1024*102485);        cos.close();        fos.close();        fis.close();    }}
  1. 读取输入流
  2. 通过类名反射出对应的codec
  3. 写出输出流
  4. 通过IOUtils.copyBytes写出去

压缩前后对比:

8846bc285a52463fa2553b5ab1fa86ca.png
2560f70196f157ab8c62a9ec195e85c3.png

BZip2Codec解压

private static void decompression(String filename) throws Exception{        CompressionCodecFactory factory = new CompressionCodecFactory(new Configuration());        CompressionCodec codec = factory.getCodec(new Path(filename));        CompressionInputStream fis = codec.createInputStream(new FileInputStream(new File(filename)));        FileOutputStream fos = new FileOutputStream(new File(filename) + ".decoded");        IOUtils.copyBytes(fis,fos,1024*102485);        fos.close();        fos.close();        fis.close();    }

解压前后对比:

96f47d91b19c2b5ce9052c648c975fbc.png
45aff8df6a5120e4ad0dc4c9e3d968a8.png

Map端压缩控制

mapred-default.xml中有mapreduce.map.output.compress参数,控制map输出时的压缩,mapreduce.map.output.compress.codec控制压缩类型。

代码层面可以用:

configuration.setBoolean("mapreduce.map.output.compress",true);configuration.setClass("mapreduce.map.output.compress.codec",BZip2Codec.class,CompressionCodec.class);

进行设置即可。

若要在配置层面更改,core-site.xml需要加上:

io.compression.codecs        org.apache.hadoop.io.compress.GzipCodec,        org.apache.hadoop.io.compress.DefaultCodec,        org.apache.hadoop.io.compress.BZip2Codec,        org.apache.hadoop.io.compress.SnappyCodec    

mapred-site.xml添加:

mapreduce.map.output.compress=truemapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.BZip2Codemapreduce.output.fileoutputformat.compress=truemapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.BZip2Code

配置文件修改完重启Hadoop即可。

07b994294b6d094b7a3d57f25b77e266.png

Reduce端压缩控制

mapred-default.xml中有mapreduce.output.fileoutputformat.compress参数,控制reduce端输出时的压缩,

mapreduce.output.fileoutputformat.compress.codec控制压缩类型。

设置同上。

你还有什么 Hadoop 整合压缩相关知识点?欢迎评论告诉我们 ~

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值