Hadoop集群安装lzo

Hadoop安装lzo

环境要求

java-1.8
maven-3.6.3
hadoop-3.x.x

下载安装包

到自己目录下下载即可,master.zip可能需要VPN。

[root@master source]# cd /opt/source/
[root@master source]# sudo yum -y install lzo-devel zlib-devel gcc autoconf automake libtool

[root@master source]# wget http://www.oberhumer.com/opensource/lzo/download/lzo-2.10.tar.gz

[root@master source]# wget https://github.com/twitter/hadoop-lzo/archive/master.zip

解压压缩包

[root@master source]# tar -zxvf lzo-2.10.tar.gz -C /opt/source
[root@master source]# unzip master.zip

修改配置

[root@basecoalmine source]# vim /opt/source/hadoop-lzo-master/pom.xml
  <hadoop.current.version>3.3.2</hadoop.current.version> #自己的hadoop版本,可用hadoop version查看

编译lzo-2.10

[root@master source]# cd /opt/source/lzo-2.10/
[root@master lzo-2.10]# bash configure -prefix=/opt/source/lzo-2.10/
[root@master lzo-2.10]# make
[root@master lzo-2.10]# make install

配置环境变量

[root@master lzo-2.10]# vim /etc/profile
export C_INCLUDE_PATH=/opt/source/lzo-2.10/include
export LIBRARY_PATH=/opt/source/lzo-2.10/lib
[root@master lzo-2.10]# source /etc/profile

编译安装hadoop-lzo

[root@master lzo-2.10]# cd /opt/source/hadoop-lzo-master/

#需要等待一段时间
[root@master hadoop-lzo-master]# mvn package -Dmaven.test.skip=true
[root@master hadoop-lzo-master]# cd /target

# 复制jar包到hadoop目录
[root@master target]# cp hadoop-lzo-0.4.21-SNAPSHOT.jar $HADOOP_HOME/share/hadoop/common/

core-site.xml增加配置支持LZO压缩

<property>
    <name>io.compression.codecs</name>
    <value>
        org.apache.hadoop.io.compress.GzipCodec,
        org.apache.hadoop.io.compress.DefaultCodec,
        org.apache.hadoop.io.compress.BZip2Codec,
        org.apache.hadoop.io.compress.SnappyCodec,
        com.hadoop.compression.lzo.LzoCodec,
        com.hadoop.compression.lzo.LzopCodec
    </value>
</property>

<property>
    <name>io.compression.codec.lzo.class</name>
    <value>com.hadoop.compression.lzo.LzoCodec</value>
</property>

mapred-site.xml 添加如下配置

<property>
    <name>mapred.child.env </name>
    <value>LD_LIBRARY_PATH=/opt/app/lzo/complie/lib</value>
</property>
<property>
    <name>mapreduce.map.output.compress</name>
    <value>true</value>
</property>
<property>
    <name>mapreduce.map.output.compress.codec</name>
    <value>com.hadoop.compression.lzo.LzoCodec</value>
</property>

最后重启hadoop集群即可。

##安装maven可查看这篇文章

链接: link .

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
安装LZS库和HadoopLZO压缩算法库可以按照以下步骤进行: 1. 下载LZS库和HadoopLZO压缩算法库。 可以从以下网址下载对应版本的LZS库和HadoopLZO压缩算法库: - LZS库:http://www.lzsupdates.com/download/lzs-1.6.tar.gz - HadoopLZO压缩算法库:https://github.com/ning/jvm-compressor-snappy/releases/download/v0.1.0-native-hadoop1.0.4.1/libhadoop-gpl-compression-0.1.0-native-1.0.4.1.jar 2. 安装LZS库。 解压下载的LZS库文件,并按照以下步骤进行安装: ```bash tar -zxvf lzs-1.6.tar.gz cd lzs-1.6 ./configure make make install ``` 安装完成后,可以使用以下命令检查是否安装成功: ```bash lzs --version ``` 3. 安装HadoopLZO压缩算法库。 将下载的`libhadoop-gpl-compression-0.1.0-native-1.0.4.1.jar`文件复制到Hadoop的`lib`目录下: ```bash cp libhadoop-gpl-compression-0.1.0-native-1.0.4.1.jar $HADOOP_HOME/lib/ ``` 然后,需要在Hadoop的配置文件中添加以下配置: ``` io.compression.codecs org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.SnappyCodec,com.hadoop.compression.lzo.LzoCodec io.compression.codec.lzo com.hadoop.compression.lzo.LzoCodec ``` 配置完成后,重启Hadoop集群,以确保配置生效。 注意:如果您使用的是CDH、HDP等Hadoop发行版,则可以跳过以上步骤,因为这些发行版已经默认包含了LZO压缩算法库。 安装完成后,您就可以在Java的Spark程序中使用LZS压缩算法了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值