二、Hadoop系统应用之Hadoop集群搭建(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)

Hadoop集群搭建前安装准备参考:
一、Hadoop系统应用之安装准备(一)(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)
一、Hadoop系统应用之安装准备(二)(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)

Hadoop集群搭建

1 Hadoop集群部署模式

采用完全分布模式对Hadoop集群进行部署

2 JDK安装

第一步:使用如下指令进入之前创建的用于存放安装包软件的文件夹:
cd /export/software/
之后使用指令ls查看该目录内容,可发现该目录下没有文件,然后输入rz指令(上传文件指令),可发现找不到该命令,这是由于还没有安装。
在这里插入图片描述

第二步:使用指令yum install lrzsz -y下载,安装该命令。
在这里插入图片描述

若下载失败则为之前配置的yum源失效,可尝试依次输入以下三条指令解决:

wget -O /etc/yum.repos.d/CentOS-Base.repo http://files.tttidc.com/centos6/Centos-6.repo
wget -O /etc/yum.repos.d/epel.repo http://files.tttidc.com/centos6/epel-6.repo
yum makecache

第三步:安装完成后输入指令rz,选择JDK安装包,进行文件的上传。
JDK
在这里插入图片描述

如果点击ok后没有反应就再次输入rz。
第四步:对JDK进行解压。
使用如下指令:

tar -zxvf jdk-8u161-linux-x64.tar.gz -C /export/servers/

然后使用如下指令进入/export/servers/目录(该目录为JDK解压后的位置):
cd /export/servers/
在该目录下,使用如下指令进行JDK重命名:
mv jdk1.8.0_161/ jdk
在这里插入图片描述

第五步:配置JDK环境变量。
使用如下指令进入profile文件并进行修改:
vi /etc/profile
在该文件最下方写入如下内容:

export JAVA_HOME=/export/servers/jdk
export PATH=:$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

在这里插入图片描述

之后执行source /etc/profile指令使之生效,最后输入指令java -version查看是否安装成功。
在这里插入图片描述

3 Hadoop安装

第一步:使用如下指令进入之前创建的用于存放安装包软件的文件夹:

cd /export/software/

第二步:使用指令rz上传hadoop安装包。
Hadoop 2.7.4
在这里插入图片描述

如果点击ok后没有反应就再次输入rz。之后使用指令ls查看该目录下文件可发现已成功上传hadoop安装包。
在这里插入图片描述
在这里插入图片描述

第三步:对hadoop进行解压。
使用如下指令:

tar -zxvf hadoop-2.7.4.tar.gz -C /export/servers/

解压完成后查看使用指令cd /export/servers/进入该解压目录,使用指令ls查看该目录下文件可发现已存在hadoop。
在这里插入图片描述

第四步:配置hadoop环境变量。
使用如下指令进入profile文件并进行修改:
vi /etc/profile
在该文件最下方写入如下内容:

export HADOOP_HOME=/export/servers/hadoop-2.7.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

在这里插入图片描述

之后执行source /etc/profile指令使之生效,最后输入指令hadoop version查看是否安装成功。
在这里插入图片描述

4 Hadoop集群配置

第一步:配置Hadoop集群主节点。
在上一步的基础上,首先使用如下指令进入etc/hadoop/目录:
cd hadoop-2.7.4/etc/hadoop/
然后使用如下指令打开hadoop-env.sh文件进行修改:
vi hadoop-env.sh
在该文件中添加以下内容:

export JAVA_HOME=/export/servers/jdk

在这里插入图片描述

第二步:修改core-site.xml文件。
使用如下指令打开core-site.xml文件进行修改:
vi core-site.xml
在该文件中添加以下内容:

<configuration>
        <property>
                <name>fs.defaultFS</name>
	<value>hdfs://hadoop01:9000</value>
        </property>
       <property>
                <name>hadoop.tmp.dir</name>
                <value>/export/servers/hadoop-2.7.4/tmp</value>
        </property>
</configuration>

在这里插入图片描述

第三步:修改hdfs-site.xml文件。
使用如下指令打开hdfs-site.xml文件进行修改:
vi hdfs-site.xml
在该文件中添加以下内容:

<configuration>
         <property>
                <name>dfs.replication</name>
                <value>3</value>
        </property>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>hadoop02:50090</value>
        </property>
</configuration>

在这里插入图片描述

第四步:修改mapred-site.xml文件。
在该文件夹下,没有mapred-site.xml文件,只有一个mapred-site.xml.template文件,通过如下指令将该文件复制并重命名为mapred-site.xml。

cp mapred-site.xml.template mapred-site.xml

在这里插入图片描述

使用如下指令打开mapred-site.xml文件进行修改:
vi mapred-site.xml
在该文件中添加以下内容:

<configuration>
<!-- 指定MapReduce运行时框架,这里指定在Yarn上,默认是local -->
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
</configuration>

在这里插入图片描述

第五步:修改yarn-site.xml文件。
使用如下指令打开yarn-site.xml文件进行修改:
vi yarn-site.xml
在该文件中添加以下内容:

<configuration>
       <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>hadoop01</value>
        </property>
   <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
   <property>
                <name>yarn.nodemanager.resource.memory-mb</name>
                <value>2048</value>
        </property>
   <property>
                <name>yarn.nodemanager.resource.cpu-vcores</name>
                <value>1</value>
        </property>
</configuration>

在这里插入图片描述

第六步:修改slaves文件。
使用如下指令打开slaves文件进行修改:
vi slaves
将该文件中内容删掉,然后在该文件中添加以下内容:
hadoop01
hadoop02
hadoop03
在这里插入图片描述

第七步:将上述主节点hadoop01的配置内容分发给hadoop02和hadoop03上。
使用如下指令:

scp /etc/profile hadoop02:/etc/profile
scp /etc/profile hadoop03:/etc/profile
scp -r /export/ hadoop02:/
scp -r /export/ hadoop03:/

之后在另外两个节点上执行source /etc/profile指令完成配置。
在这里插入图片描述

参考文献:黑马程序员.Hadoop大数据技术原理与应用[M].北京:清华大学出版社,2019.

后续学习链接:
三、Hadoop系统应用之Hadoop集群测试及初体验(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)

  • 0
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

七层楼的疯子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值