hadoop配置LZO压缩

目录

一、准备及配置

二、验证

结论:


一、准备及配置

1.准备jar包

1.1下载hadoop-lzo-*相关jar包,比如:hadoop-lzo-0.4.20.jar

CSDN上有很多,无法下载的私信我。

或者下载lzo代码编辑jar包(不推荐)

2.上传jar包

上传准备好的jar包到hadoop的share/hadoop/common下

(比如:hadoop-3.1.3/share/hadoop/common)

3.同步配置

在common目录下同步,可以用scp也可以用rsync

scp:

#进入hadoopd的share/hadoop/common目录下执行:
scp -r hadoop-lzo-0.4.20.jar hadoop02:/training/hadoop-3.1.3/share/hadoop/common/

rsync:

jps、kafka、zookeeper群起脚本和rsync文件分发脚本(超详细)_一个人的牛牛的博客-CSDN博客 

4.hadoop配置

编辑core-site.xml,添加以下内容:

vi core-site.xml

<property>
    <name>io.compression.codecs</name>
    <value>
        org.apache.hadoop.io.compress.GzipCodec,
        org.apache.hadoop.io.compress.DefaultCodec,
        org.apache.hadoop.io.compress.BZip2Codec,
        org.apache.hadoop.io.compress.SnappyCodec,
        com.hadoop.compression.lzo.LzoCodec,
        com.hadoop.compression.lzo.LzopCodec
    </value>
</property>
<property>
    <name>io.compression.codec.lzo.class</name>
    <value>com.hadoop.compression.lzo.LzoCodec</value>
</property>

5.同步core-site.xml

与第3步原理相同,参考第3步

6.重新启动hadoop

stop-all.sh

start-all.sh

二、验证

1.编写一个txt

2.上传这个txt到hdfs

hdfs dfs -put word.txt /input

3.测试

进入hadoop的bin目录下执行:

 hadoop jar /training/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount -Dmapreduce.output.fileoutputformat.compress=true -Dmapreduce.output.fileoutputformat.compress.codec=com.hadoop.compression.lzo.LzopCodec /input /output

注:

#调用mapreduce的jar包的wordcount功能:/training/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar

 #compress压缩:-Dmapreduce.output.fileoutputformat.compress=true

 #调用lzo:-Dmapreduce.output.fileoutputformat.compress.codec=com.hadoop.compression.lzo.LzopCodec

#word.txt的hdfs目录:/input

#结果集目录:/output

运行成功:

 浏览器查看:

http://hadoop02:9870/explorer.html#/output

点击part-r-00000.lzo,点击Head the file

 

 

结论:

LZO配置成功!!! 

注:本文查询网络资源写成!

  • 4
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
安装LZS库和HadoopLZO压缩算法库可以按照以下步骤进行: 1. 下载LZS库和HadoopLZO压缩算法库。 可以从以下网址下载对应版本的LZS库和HadoopLZO压缩算法库: - LZS库:http://www.lzsupdates.com/download/lzs-1.6.tar.gz - HadoopLZO压缩算法库:https://github.com/ning/jvm-compressor-snappy/releases/download/v0.1.0-native-hadoop1.0.4.1/libhadoop-gpl-compression-0.1.0-native-1.0.4.1.jar 2. 安装LZS库。 解压下载的LZS库文件,并按照以下步骤进行安装: ```bash tar -zxvf lzs-1.6.tar.gz cd lzs-1.6 ./configure make make install ``` 安装完成后,可以使用以下命令检查是否安装成功: ```bash lzs --version ``` 3. 安装HadoopLZO压缩算法库。 将下载的`libhadoop-gpl-compression-0.1.0-native-1.0.4.1.jar`文件复制到Hadoop的`lib`目录下: ```bash cp libhadoop-gpl-compression-0.1.0-native-1.0.4.1.jar $HADOOP_HOME/lib/ ``` 然后,需要在Hadoop配置文件中添加以下配置: ``` io.compression.codecs org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.SnappyCodec,com.hadoop.compression.lzo.LzoCodec io.compression.codec.lzo com.hadoop.compression.lzo.LzoCodec ``` 配置完成后,重启Hadoop集群,以确保配置生效。 注意:如果您使用的是CDH、HDP等Hadoop发行版,则可以跳过以上步骤,因为这些发行版已经默认包含了LZO压缩算法库。 安装完成后,您就可以在Java的Spark程序中使用LZS压缩算法了。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值