Hadoop支持LZO

首先需要配置环境

yum -y install  lzo-devel  zlib-devel  gcc autoconf automake libtool

下载lzo包

wget www.oberhumer.com/opensource/lzo/download/lzo-2.06.tar.gz

解压

tar -zxvf lzo-2.06.tar.gz -C ~/app

然后进入到目录中执行以下操作

export CFLAGS=-m64
mkdir complie
./configure -enable-shared -prefix=/home/hadoop/app/lzo-2.06/complie/
make && make install

成功后进入到complie中查看文件
在这里插入图片描述
安装Hadoop-lzo
下载

wget https://github.com/twitter/hadoop-lzo/archive/master.zip

然后解压

unzip master

进入到hadoop-lzo-master中修改pom.xml文件,让其对应Hadoop版本

  <properties>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    <hadoop.current.version>2.6.0</hadoop.current.version>
    <hadoop.old.version>1.0.4</hadoop.old.version>
  </properties>

然后执行以下命令

export CFLAGS=-m64
export CXXFLAGS=-m64
export C_INCLUDE_PATH=/home/hadoop/app/lzo-2.06/complie/include/	//这里需要提供编译好的lzo的include文件
export LIBRARY_PATH=/home/hadoop/app/lzo-2.06/complie/lib/	//这里需要提供编译好的lzo的lib文件

然后开始编译

mvn clean package -Dmaven.test.skip=true

在这里插入图片描述
接下来执行

cd target/native/Linux-amd64-64
tar -cBf - -C lib . | tar -xBvf - -C ~
cp ~/libgplcompression* $HADOOP_HOME/lib/native/

到hadoop-lzo-master下把jar包导入Hadoop中
cp target/hadoop-lzo-0.4.21-SNAPSHOT.jar $HADOOP_HOME/share/hadoop/common/
cp target/hadoop-lzo-0.4.21-SNAPSHOT.jar $HADOOP_HOME/share/hadoop/mapreduce/lib

接下来修改配置文件
再Hadoop的etc/hadoop/hadoop-env.sh中添加lib包地址

export LD_LIBRARY_PATH=/home/hadoop/app/lzo-2.06/complie/lib

在core-site.xml,添加

<property>
    <name>io.compression.codecs</name>
    <value>org.apache.hadoop.io.compress.GzipCodec,
            org.apache.hadoop.io.compress.DefaultCodec,
            org.apache.hadoop.io.compress.BZip2Codec,
            com.hadoop.compression.lzo.LzoCodec,
            com.hadoop.compression.lzo.LzopCodec
    </value>
</property>
<property>
    <name>io.compression.codec.lzo.class</name>
    <value>com.hadoop.compression.lzo.LzoCodec</value>
</property>

在mapred-site.xml,添加

<property>
    <name>mapred.child.env </name>
    <value>LD_LIBRARY_PATH=/home/hadoop/app/lzo-2.06/complie/lib</value>
</property>
<property>
    <name>mapreduce.map.output.compress</name>
    <value>true</value>
</property>
<property>
    <name>mapreduce.map.output.compress.codec</name>
    <value>com.hadoop.compression.lzo.LzoCodec</value>
</property>

然后重启Hadoop

之后就可以尝试使用lzo压缩了
这里我准备了一份数据
在这里插入图片描述
使用lzo压缩

lzop access_2013_05_30_2.log

对比大小
在这里插入图片描述

然后将数据上传到HDFS中

hadoop fs -put access_2013_05_30_2.log.lzo /data

查看数据
在这里插入图片描述

然后利用Hadoop自带的wordcount实验一下

hadoop jar hadoop-mapreduce-examples-2.6.0-cdh5.7.0.jar wordcount /data/access_2013_05_30_2.log.lzo out

然而发现一个问题,那就是分片只有一片
在这里插入图片描述
所以我们要把文件简历索引

hadoop jar hadoop-lzo-0.4.21-SNAPSHOT.jar com.hadoop.compression.lzo.DistributedLzoIndexer /data/access_2013_05_30_2.log.lzo

注意位置,我是在lib下直接编译的,别忘了指定jar包位置
在这里插入图片描述
然后运行

hadoop jar hadoop-mapreduce-examples-2.6.0-cdh5.7.0.jar wordcount -Dmapreduce.job.inputformat.class=com.hadoop.mapreduce.LzoTextInputFormat /data/access_2013_05_30_2.log.lzo /out

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值