CDH版本hadoop重新编译
前言:在生产环境中,基于Apache Hadoop不便维护,升级,管理等,所以大部分企业采用了CDH Hadoop,但是由于CDH给出的Hadoop的安装包没有提供带C程序访问的接口,我们在使用本地库(本地库可以用来做压缩,以及支持C程序等等)的时候就会出问题。所以需要自己重新进行编译,让其支持本地库。
CDH所有软件下载地址:http://archive.cloudera.com/cdh5/cdh/5/
1.编译环境的准备
1.1 准备linux环境
准备一台linux环境,内存4G或以上,硬盘40G或以上,我这里使用的是Centos6.9 64位的操作系统(注意:一定要使用64位的操作系统)
1.2 虚拟机联网,关闭防火墙,关闭selinux
A.关闭防火墙命令:
service iptables stop
chkconfig iptables off
B.关闭selinux:
vim /etc/selinux/config
1.3 安装jdk1.7
注意:亲测证明hadoop-2.6.0-cdh5.14.0 这个版本的编译,只能使用jdk1.7,如果使用jdk1.8那么就会报错
A.查看centos6.9自带的openjdk:
rpm -qa | grep java
B.将所有这些openjdk全部卸载掉:
rpm -e java-1.6.0-openjdk-1.6.0.41-1.13.13.1.el6_8.x86_64 tzdata-java-2016j-1.el6.noarch java-1.7.0-openjdk-1.7.0.131-2.6.9.0.el6_8.x86_64 --nodeps
C. 将我们jdk的安装包上传到/export/softwares(我这里使用的是jdk1.7.0_71这个版本)
D.解压压缩包:
mkdir -p /export/servers
mkdir -p /export/softwares
cd /export/softwares
tar -zxvf jdk-7u71-linux-x64.tar.gz -C ../servers/
E.配置环境变量:
vim /etc/profile
添加修改以下内容:
export JAVA_HOME=/export/servers/jdk1.7.0_71
export PATH=:$JAVA_HOME/bin:$PATH
F.让修改立即生效:
source /etc/profile
1.4 安装maven
这里使用maven3.x以上的版本应该都可以,不建议使用太高的版本,强烈建议使用3.0.5的版本即可
A.将maven的安装包上传到/export/softwares,然后解压maven的安装包到/export/servers
cd /export/softwares/
tar -zxvf apache-maven-3.0.5-bin.tar.gz -C ../servers/
B.配置maven的环境变量:
vim /etc/profile
export MAVEN_HOME=/export/servers/apache-maven-3.0.5
export MAVEN_OPTS="-Xms4096m -Xmx4096m"
export PATH=:$MAVEN_HOME/bin:$PATH
效果如下:
C.让修改立即生效
source /etc/profile
D.上传解压maven的仓库
tar -zxvf mvnrepository.tar.gz -C /export/servers/
E.修改maven的配置文件
cd /export/servers/apache-maven-3.0.5/conf
vim settings.xml
指定仓库存放位置:
添加一个我们阿里云的镜像地址,会让我们下载jar包更快:
1.5 安装findbugs
A.下载findbugs:
cd /export/softwares
wget --no-check-certificate https://sourceforge.net/projects/findbugs/files/findbugs/1.3.9/findbugs-1.3.9.tar.gz/download -O findbugs-1.3.9.tar.gz
B.解压findbugs:
tar -zxvf findbugs-1.3.9.tar.gz -C ../servers/
C.配置findbugs的环境变量:
vim /etc/profile
D.让修改立即生效
source /etc/profile
1.6 在线安装一些依赖包
yum install autoconf automake libtool cmake
yum install ncurses-devel
yum install openssl-devel
yum install lzo-devel zlib-devel gcc gcc-c++
bzip2压缩需要的依赖包:
yum install -y bzip2-devel
1.7 安装protobuf
protobuf下载百度网盘地址:https://pan.baidu.com/s/1pJlZubT
下载之后上传到 /export/softwares,解压protobuf并进行编译:
cd /export/softwares
tar -zxvf protobuf-2.5.0.tar.gz -C ../servers/
cd /export/servers/protobuf-2.5.0
./configure
make && make install
1.8 安装snappy
snappy下载地址:http://code.google.com/p/snappy/
cd /export/softwares/
tar -zxf snappy-1.1.1.tar.gz -C ../servers/
cd ../servers/snappy-1.1.1/
./configure
make && make install
1.9 下载cdh源码准备编译
源码下载地址为:http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.14.0-src.tar.gz
cd /export/softwares
wget http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.14.0-src.tar.gz
tar -zxvf hadoop-2.6.0-cdh5.14.0-src.tar.gz -C ../servers/
cd /export/servers/hadoop-2.6.0-cdh5.14.0
编译支持snappy压缩:
mvn package -DskipTests -Pdist,native -Dtar -Drequire.snappy -e -X
编译完成之后我们需要的压缩包就在下面这个路径里面:
1.10 常见编译错误
如果编译时候出现这个错误:
An Ant BuildException has occured: exec returned: 2
这是因为tomcat的压缩包没有下载完成,需要自己下载一个对应版本的apache-tomcat-6.0.53.tar.gz的压缩包放到指定路径下面去即可
这两个路径下面需要放上这个tomcat的 压缩包:
/export/servers/hadoop-2.6.0-cdh5.14.0/hadoop-hdfs-project/hadoop-hdfs-httpfs/downloads
/export/servers/hadoop-2.6.0-cdh5.14.0/hadoop-common-project/hadoop-kms/downloads
2.CDH版本集群的Zookeeper环境搭建
由于我们使用的Hadoop的版本是CDH的,所以集群中zookeeper也要使用相对应的CDH版本,下面我们将对CDH版本的Zookeeper进行环境搭建。Hadoop的安装及环境搭建与Appach版本的一样(详见:Hadoop集群搭建—step3(hadoop三种架构介绍(standAlone,伪分布,分布式安装以及环境搭建)一篇),故不再累述。
2.1 下载,解压
下载地址为:http://archive.cloudera.com/cdh5/cdh/5/
我们这里也下载对应CDH5.14.版本的zookeeper的压缩包即可
2.2 修改配置文件
node01修改配置文件:
A.创建zk数据存放目录
mkdir -p /export/servers/zookeeper-3.4.5-cdh5.14.0/zkdatas
B.修改zk配置文件
cd /export/servers/zookeeper-3.4.5-cdh5.14.0/conf
cp zoo_sample.cfg zoo.cfg
vim zoo.cfg
dataDir=/export/servers/zookeeper-3.4.5-cdh5.14.0/zkdatas
autopurge.snapRetainCount=3
autopurge.purgeInterval=1
server.1=node01:2888:3888
server.2=node02:2888:3888
server.3=node03:2888:3888
C.创建myid文件并写入内容
echo 1 > /export/servers/zookeeper-3.4.5-cdh5.14.0/zkdatas/myid
D.将安装包分发到其他机器
cd /export/servers
scp -r zookeeper-3.4.5-cdh5.14.0/ node02:$PWD
scp -r zookeeper-3.4.5-cdh5.14.0/ node03:$PWD
node02修改配置文件:
创建myid文件并赋值
echo 2 > /export/servers/zookeeper-3.4.5-cdh5.14.0/zkdatas/myid
node03修改配置文件:
创建myid文件并赋值
echo 3 > /export/servers/zookeeper-3.4.5-cdh5.14.0/zkdatas/myid
2.3 启动zk服务
每台机器都执行:
cd /export/servers/zookeeper-3.4.5-cdh5.14.0
bin/zkServer.sh start