hadoop-2.5.0-cdh5.3.6集群搭建

22 篇文章 3 订阅
3 篇文章 0 订阅

安装环境说明

操作系统:CentOS 6.5
hadoop版本:hadoop-2.5.0-cdh5.3.6.tar.gz
jdk版本:jdk 1.7
安装用户:root
相关软件下载
https://pan.baidu.com/s/1drI1TO

机器与服务规划

机器规划
在这里插入图片描述

服务规划
在这里插入图片描述

安装hadoop包

1.下载hadoop-2.5.0-cdh5.3.6.tar.gz

安装目录为:/usr/local
将下载的hadoop-2.5.0-cdh5.3.6.tar.gz,上传到/usr/local目录下。

2.将hadoop包进行解压缩

tar -zxvf hadoop-2.5.0-cdh5.3.6.tar.gz

3.对hadoop目录进行重命名

mv hadoop-2.5.0-cdh5.3.6 hadoop
  1. 配置hadoop相关环境变量
#配置环境变量
vi /etc/profile
#添加hadoop环境变量
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
#使配置的环境变量生效
source  /etc/profile

5.测试是否配置成功

hadoop version
yarn version

在这里插入图片描述

修改配置文件

以下配置文件在:/usr/local/hadoop/etc/hadoop/目录下

1.修改core-site.xml
属性说明:fs.default.name:配置hdfs地址

<property>
  <name>fs.default.name</name>
  <value>hdfs://hadoop102:9000</value>
</property>

2.修改hdfs-site.xml
属性说明:dfs.replication:hdfs副本数。
总共3个节点,1个master,2个slave。所以设置成2个block副本

<property>
  <name>dfs.name.dir</name>
  <value>/usr/local/data/namenode</value>
</property>
<property>
  <name>dfs.data.dir</name>
  <value>/usr/local/data/datanode</value>
</property>
<property>
  <name>dfs.tmp.dir</name>
  <value>/usr/local/data/tmp</value>
</property>
<property>
  <name>dfs.replication</name>
  <value>2</value>
</property>

3.修改mapred-site.xml
重命名mapred-site.xml.template为mapred-site.xml

<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
</property>

4.修改yarn-site.xml

<property>
  <name>yarn.resourcemanager.hostname</name>
  <value>hadoop102</value>
</property>
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>

5.修改slaves文件

hadoop103
hadoop104

6.在hadoop-env.sh 中添加JAVA_HOME的环境

export JAVA_HOME=/usr/java/latest

在另外两台机器上搭建hadoop

使用如上hadoop102上配置hadoop,在另外两台机器上搭建hadoop。可以使用scp命令将hadoop102上面的hadoop安装包和 /etc/profile 配置文件都拷贝到hadoop103、hadoop104。

1.将hadoop102上的hadoop复制到hadoop103
在Hadoop02上执行

cd /usr/local
scp -r hadoop root@hadoop103:/usr/local
scp /etc/profile root@hadoop103:~/

复制成功后hadoop103上的hadoop:
在这里插入图片描述

在hadoop103上执行

#对 /etc/profile文件进行source,以让它生效。
source /etc/profile
#创建data目录。
mkdir /usr/local/data

将hadoop102上的hadoop复制到hadoop103
按照上面同样的步骤,同样的方式将hadoop102上面的hadoop安装包和/etc/profile配置文件都拷贝到hadoop103。

测试hadoop103、hadoop104是否配置成功
在hadoop103、hadoop104分别执行如下命令:

hadoop version
yarn version

在这里插入图片描述

启动hdfs集群

1.格式化namenode
在hadoop102上执行以下命令

hdfs namenode -format

表示格式化成功的标志:
在这里插入图片描述

2.启动hdfs集群
start-dfs.sh
在这里插入图片描述

3.验证启动是否成功
hadoop102:namenode、secondarynamenode
在这里插入图片描述

hadoop103:datanode
在这里插入图片描述

hadoop104:datanode
在这里插入图片描述
4.hdfs管理界面:
http://hadoop102:50070
在这里插入图片描述

测试hdfs

hdfs dfs -put hello.txt /1.txt

启动yarn集群
1.启动yarn集群

start-yarn.sh

在这里插入图片描述
验证启动是否成功
hadoop102:resourcemanager

在这里插入图片描述

hadoop103:nodemanager
在这里插入图片描述
hadoop103:nodemanager
在这里插入图片描述

yarn管理界面
http://hadoop102:8088/
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值