Hadoop完全分布式搭建,保姆级教程,附有环境搭建代码!!!

搭建完全分布式

【前提条件】:

1) 准备3台centos虚拟机,主机名分别设置为hadoop01,hadoop02,hadoop03,ip分别设置为192.168.121.160/192.168.121.161/192.168.121.162

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

通过“完整克隆方式”克隆出hadoop02和hadoop03,

注意:使用nmtui修改ip地址后,一定要重新激活网络才能生效

在这里插入图片描述

在这里插入图片描述

2) 三台电脑之间的免密操作准备好

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

3) 分别修改集群中每台机器的hosts文件 ( vi /etc/hosts),内容设置如下:

192.168.121.160 hadoop01

192.168.121.161 hadoop02

192.168.121.162 hadoop03

在这里插入图片描述

在这里插入图片描述

安装jdk

在hadoop01上创建目录并上传和解压jdk

1.创建目录

在这里插入图片描述

2.上传jdk

在这里插入图片描述

在这里插入图片描述

3.以解压的方式安装jdk

在这里插入图片描述

tar -zxvf  jdk-8u241-linux-x64.tar.gz  -C /export/servers/

注意:-C 表示设置解压后存放的位置

在这里插入图片描述

4.配置hadoop01上的jdk环境变量(vi /etc/profile)

在这里插入图片描述

5.验证jdk是否安装成功

在这里插入图片描述

6.分发jdk安装目录

【注意】:必须提前在hadoop02和hadoop03上创建好相应的目录

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

scp  -r  jdk8   root@hadoop02:/export/servers/ 
scp  -r  jdk8   root@hadoop03:/export/servers/

7.分发系统环境变量****,并在集群的每台机器上使用s*****ource /etc/profile*

在这里插入图片描述

安装Hadoop

1.上传并安装hadoop

在这里插入图片描述

在这里插入图片描述

注意:为了后续方便,我们使用mv将 Hadoop改名为Hadoop313

在这里插入图片描述

2.配置hadoop系统环境变量

在这里插入图片描述

3.验证hadoop环境变量是否配置成功

在这里插入图片描述

4.修改hadoop的配置文件

注意:先进入/export/servers/hadoop313/etc/hadoop目录

1)vi hadoop-env.sh

在这里插入图片描述

export  JAVA_HOME=/export/servers/jdk8
export  HDFS_NAMENODE_USER=root
export  HDFS_DATANODE_USER=root
export  HDFS_SECONDARYNAMENODE_USER=root
export  YARN_RESOURCEMANAGER_USER=root
export  YARN_NODEMANAGER_USER=root

在这里插入图片描述

2)vi core-site.xml

在这里插入图片描述

<configuration>
<property>
 <name>fs.defaultFS</name>
 <value>hdfs://hadoop01:9000</value>
</property>
<property>
 <name>hadoop.tmp.dir</name>
 <value>/export/data/hadoop313</value>
</property>
</configuration>

3)vi hdfs-site.xml

在这里插入图片描述

<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop02:9868</value>
</property>
</configuration>

4)vi mapred-site.xml

在这里插入图片描述

<configuration>
<property>
 <name>mapreduce.framework.name</name>
 <value>yarn</value>
</property>
<property>
    <name>yarn.app.mapreduce.am.env</name>
    <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
    <name>mapreduce.map.env</name>
    <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
    <name>mapreduce.reduce.env</name>
    <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
</configuration>

5)vi yarn-site.xml

在这里插入图片描述

<configuration>
<!-- Site specific YARN configuration properties -->
<property>
 <name>yarn.resourcemanager.hostname</name>
 <value>hadoop01</value>
</property>
<property>
 <name>yarn.nodemanager.aux-services</name>
 <value>mapreduce_shuffle</value>
</property>
</configuration>

5.配置workers文件,添加如下内容

在这里插入图片描述

在这里插入图片描述

6.分发hadoop安装目录

在这里插入图片描述

在这里插入图片描述

scp  -r  hadoop313  root@hadoop02:/export/servers/
scp  -r  hadoop313  root@hadoop03:/export/servers/

7.分发/etc/profile文件到集群中的每一台机器,注意每台机器都要使用source /etc/profile 配置才能生效

在这里插入图片描述

8.在hadoop01上格式化hdfs文件系统

注意:格式化必须在Hadoop1上进行,并且只能执行一次

在这里插入图片描述

在这里插入图片描述

9.在hadoop01上启动hadoop

在这里插入图片描述

在这里插入图片描述

查看hadoop运行状态

注意:必须先分别在集群的3台机器中关闭防火墙并禁止防火墙开机启动

在这里插入图片描述

在这里插入图片描述

1)在宿主机的谷歌浏览器中输入:http://192.168.121.160:9870/ 用来查看HDFS

在这里插入图片描述

2)在宿主机的谷歌浏览器中输入:http://192.168.121.160:8088/ 用来查看YARN

在这里插入图片描述

1.关闭集群

在这里插入图片描述

  • 12
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值