Hadoop_05_CDH Hadoop 环境搭建

CDH版本

CDH官网
所有关于CHD软件的安装包的网址

Hadoop源码重新编译

编译原因
由于CDH的所有安装包版本都给出了对应的软件版本,一般情况下是不需要自己进行编译的,但是由于cdh给出的hadoop的安装包没有提供带C程序访问的接口,所以我们在使用本地库(本地库可以用来做压缩,以及支持C程序等等)的时候就会出问题

编译环境的准备

linux环境

存4G或以上,硬盘40G或以上,我这里使用的是Centos6.9 64位的操作系统(注意:一定要使用64位的操作系统)

新建编译虚拟机

虚拟机联网,关闭防火墙,关闭selinux
关闭防火墙命令:
service iptables stop
chkconfig iptables off
关闭selinux
vim /etc/selinux/config

安装jdk1.7

hadoop-2.6.0-cdh5.14.0 这个版本的编译,只能使用jdk1.7,如果使用jdk1.8那么就会报错
查看centos6.9自带的openjdk,将所有这些openjdk全部卸载掉
rpm -qa | grep java

cd /export/softwares
tar -zxvf jdk-7u71-linux-x64.tar.gz -C …/servers/

配置环境变量
vim /etc/profile
export JAVA_HOME=/export/servers/jdk1.7.0_71
export PATH=: J A V A H O M E / b i n : JAVA_HOME/bin: JAVAHOME/bin:PATH

让修改立即生效
source /etc/profile

安装maven

将maven的安装包上传到/export/softwares
然后解压maven的安装包到/export/servers
cd /export/softwares/
tar -zxvf apache-maven-3.0.5-bin.tar.gz -C …/servers/

配置maven的环境变量

vim /etc/profile
export MAVEN_HOME=/export/servers/apache-maven-3.0.5
export MAVEN_OPTS="-Xms4096m -Xmx4096m"
export PATH=:$MAVEN_HOME/bin:$PATH

让修改立即生效
source /etc/profile

解压maven的仓库,我已经下载好了的一份仓库,用来编译hadoop会比较快
tar -zxvf mvnrepository.tar.gz -C /export/servers/

修改maven的配置文件
cd /export/servers/apache-maven-3.0.5/conf
vim settings.xml
指定我们本地仓库存放的路径
在这里插入图片描述
添加一个我们阿里云的镜像地址,会让我们下载jar包更快

alimaven
aliyun maven
http://maven.aliyun.com/nexus/content/groups/public/
central

安装findbugs

下载findbugs
cd /export/softwares
wget --no-check-certificate https://sourceforge.net/projects/findbugs/files/findbugs/1.3.9/findbugs-1.3.9.tar.gz/download -O findbugs-1.3.9.tar.gz

解压findbugs
tar -zxvf findbugs-1.3.9.tar.gz -C …/servers/

配置findbugs的环境变量

vim /etc/profile
export JAVA_HOME=/export/servers/jdk1.7.0_75
export PATH=:$JAVA_HOME/bin:$PATH

export MAVEN_HOME=/export/servers/apache-maven-3.0.5
export PATH=:$MAVEN_HOME/bin:$PATH

export FINDBUGS_HOME=/export/servers/findbugs-1.3.9
export PATH=:$FINDBUGS_HOME/bin:$PATH

让修改立即生效
source /etc/profile

在线安装一些依赖包

yum install autoconf automake libtool cmake
yum install ncurses-devel
yum install openssl-devel
yum install lzo-devel zlib-devel gcc gcc-c++

bzip2压缩需要的依赖包
yum install -y bzip2-devel

安装protobuf

protobuf下载百度网盘地址
https://pan.baidu.com/s/1pJlZubT
下载之后上传到 /export/softwares
解压protobuf并进行编译
cd /export/softwares
tar -zxvf protobuf-2.5.0.tar.gz -C …/servers/
cd /export/servers/protobuf-2.5.0
./configure
make && make install

安装snappy

snappy下载地址:
http://code.google.com/p/snappy/
cd /export/softwares/
tar -zxf snappy-1.1.1.tar.gz -C …/servers/
cd …/servers/snappy-1.1.1/
./configure
make && make install

下载cdh源码准备编译

源码下载地址为:
http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.14.0-src.tar.gz
下载源码进行编译
cd /export/softwares
wget http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.14.0-src.tar.gz
tar -zxvf hadoop-2.6.0-cdh5.14.0-src.tar.gz -C …/servers/
cd /export/servers/hadoop-2.6.0-cdh5.14.0
编译不支持snappy压缩:
mvn package -Pdist,native -DskipTests –Dtar

编译支持snappy压缩:
mvn package -DskipTests -Pdist,native -Dtar -Drequire.snappy -e -X
编译完成之后我们需要的压缩包就在下面这个路径里面
在这里插入图片描述

常见编译错误

如果编译时候出现这个错误:
An Ant BuildException has occured: exec returned: 2
在这里插入图片描述
这是因为tomcat的压缩包没有下载完成,需要自己下载一个对应版本的apache-tomcat-6.0.53.tar.gz的压缩包放到指定路径下面去即可
这两个路径下面需要放上这个tomcat的 压缩包
/export/servers/hadoop-2.6.0-cdh5.14.0/hadoop-hdfs-project/hadoop-hdfs-httpfs/downloads
/export/servers/hadoop-2.6.0-cdh5.14.0/hadoop-common-project/hadoop-kms/downloads
在这里插入图片描述

zk集群环境部署

在之前三台虚拟机集群上忍痛删掉之前安装的Hadoop和zookeeper
cd /export/servers/
rm -rf hadoop-2.7.5/ zookeeper-3.4.9/

上传zookeeper-3.4.5-cdh5.14.0.tar.gz和编译后的hadoop-2.6.0-cdh5.14.0.tar.gz至 export/softwares

解压
tar -zxvf zookeeper-3.4.5-cdh5.14.0.tar.gz -C …/servers/

修改配置文件

node01修改配置文件
创建zk数据存放目录
mkdir -p /export/servers/zookeeper-3.4.5-cdh5.14.0/zkdatas

修改zk配置文件
cd /export/servers/zookeeper-3.4.5-cdh5.14.0/conf

修改zoo.cfg文件名和文件内容
cp zoo_sample.cfg zoo.cfg
vim zoo.cfg

dataDir=/export/servers/zookeeper-3.4.5-cdh5.14.0/zkdatas
autopurge.snapRetainCount=3
autopurge.purgeInterval=1
server.1=node01:2888:3888
server.2=node02:2888:3888
server.3=node03:2888:3888

创建myid文件并写入内容
echo 1 > /export/servers/zookeeper-3.4.5-cdh5.14.0/zkdatas/myid

将安装包分发到其他机器
node01执行以下命令

cd /export/servers
scp -r zookeeper-3.4.5-cdh5.14.0/ node02:$PWD
scp -r zookeeper-3.4.5-cdh5.14.0/ node03:$PWD

node02修改配置文件
echo 2 > /export/servers/zookeeper-3.4.5-cdh5.14.0/zkdatas/myid

node03修改配置文件
echo 3 > /export/servers/zookeeper-3.4.5-cdh5.14.0/zkdatas/myid

启动zk服务

三台机器都执行以下命令启动zookeeper
cd /export/servers/zookeeper-3.4.5-cdh5.14.0
bin/zkServer.sh start

CDH伪分布环境搭建

在这里插入图片描述
上传压缩包并解压
将我们重新编译之后支持snappy压缩的hadoop包上传到第一台服务器并解压
第一台机器执行以下命令
cd /export/softwares/
#这里修改掉压缩包中的中文
mv hadoop-2.6.0-cdh5.14.0-自己编译后的版本.tar.gz hadoop-2.6.0-cdh5.14.0.tar.gz
解压
tar -zxvf hadoop-2.6.0-cdh5.14.0.tar.gz -C …/servers/

查看hadoop支持的压缩方式以及本地库

第一台机器执行以下命令
cd /export/servers/hadoop-2.6.0-cdh5.14.0
bin/hadoop checknative
在这里插入图片描述
如果出现openssl为false,那么所有机器在线安装openssl即可,执行以下命令
yum -y install openssl-devel

修改配置文件

由于修改配置文件比较长,影响文章阅读
这里单独放在链接,点开可以直接复制粘贴奥
修改如下六个文件:
core-site.xml
hdfs-site.xml
hadoop-env.sh
mapred-site.xml
yarn-site.xml
slaves

创建文件存放目录

第一台机器执行以下命令
node01机器上面创建以下目录

mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/tempDatas
mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/namenodeDatas
mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/datanodeDatas
mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/edits
mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/snn/name
mkdir -p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/snn/edits

安装包的分发

第一台机器执行以下命令

cd /export/servers/
scp -r hadoop-2.6.0-cdh5.14.0/ node02:$PWD
scp -r hadoop-2.6.0-cdh5.14.0/ node03:$PWD

配置hadoop的环境变量

三台机器都要进行配置hadoop的环境变量
三台机器执行以下命令

vim  /etc/profile
export HADOOP_HOME=/export/servers/hadoop-2.6.0-cdh5.14.0
export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

配置完成之后生效
source /etc/profile

集群启动和停止

要启动 Hadoop 集群,需要启动 HDFS 和 YARN 两个集群。
注意:首次启动HDFS时,必须对其进行格式化操作。本质上是一些清理和准备工作,因为此时的 HDFS 在物理上还是不存在的。
bin/hdfs namenode -format
或者bin/hadoop namenode -format

脚本一键启动
如果配置了 etc/hadoop/slaves 和 ssh 免密登录,则可以使用程序脚本启动所有Hadoop 两个集群的相关进程,在主节点所设定的机器上执行。

启动集群
node01节点上执行以下命令
第一台机器执行以下命令
cd /export/servers/hadoop-2.6.0-cdh5.14.0/
sbin/start-dfs.sh
sbin/start-yarn.sh
sbin/mr-jobhistory-daemon.sh start historyserver

停止集群:没事儿不要去停止集群
sbin/stop-dfs.sh
sbin/stop-yarn.sh
sbin/mr-jobhistory-daemon.sh start historyserver

浏览器查看启动页面

hdfs集群访问地址
http://node01:50070/dfshealth.html#tab-overview
yarn集群访问地址
http://node01:8088/cluster
jobhistory访问地址:
http://node01:19888/jobhistory

注意
如果node01网页页面无法显示,可以在
C:\Windows\System32\drivers\etc
这个路径下修改hosts文件,添加映射后可以直接通过node01,node02,node03访问
在这里插入图片描述

Hadoop集群体验

cdh版本的环境已经运行成功:
hdfs:分布式文件存储系统
yarn:资源调度系统,可以运行我们的mapreduce的程序

本地文件系统:就是node01的本地磁盘

hdfs分布式文件系统:每个机器出一些磁盘,凑成一个大的硬盘,分布式文件系统可以想象成一个大的磁盘,磁盘的容量来自各个服务器的硬盘容量之和

HDFS 体验

hdfs:hadoop distributed file system 作为最底层的分布式文件存储系统而存在,可以存储海量的数据

文件上传
从Linux 本地上传一个文本文件到 hdfs 的/test/input 目录下
hdfs dfs -mkdir -p /test/input
hdfs dfs -put /root/install.log /test/input

mapreduce程序体验

示例程序jar:
hadoop-mapreduce-examples-2.6.0-cdh5.14.0.jar
计算圆周率
hadoop jar /export/servers/hadoop-2.6.0-cdh5.14.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0-cdh5.14.0.jar pi 3 5
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值