Hadoop集群搭建系列教程(八)—— 启动集群

欢迎来看我的个人博客SkyAsh的小窝

集群规划

NameNode 和 SecondaryNameNode 和 ResourceManager 不要安装在同一台服务器 。
这三个都很消耗内存,所以最好分属不同服务器

hadoop102hadoop103hadoop104
HDFSNameNode DataNodeDataNodeSecondary NameNode DataNode
YARNNodeManagerResourceManager NodeManagerNodeManager

配置集群

核心配置文件core-site.xml​

进入目录
cd /opt/module/hadoop-3.3.1/etc/hadoop
vim core-site.xml
文件内容修改如下
<?xml version="1.0" encoding="UTF-8"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 
 
<configuration> 
    <!-- 指定 NameNode 的地址 --> 
    <property> 
        <name>fs.defaultFS</name> 
        <value>hdfs://hadoop102:8020</value> 
    </property> 
 
    <!-- 指定 hadoop 数据的存储目录 --> 
    <property> 
        <name>hadoop.tmp.dir</name> 
        <value>/opt/module/hadoop-3.1.3/data</value> 
    </property> 
 
    <!-- 配置 HDFS 网页登录使用的静态用户为 atguigu --> 
    <property> 
        <name>hadoop.http.staticuser.user</name> 
        <value>atguigu</value> 
    </property> 
</configuration> 


image

HDFS 配置文件hdfs-site.xml​

vim hdfs-site.xml
修改内容如下
<?xml version="1.0" encoding="UTF-8"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 
 
<configuration> 
  <!-- NameNode web 端访问地址--> 
  <property> 
        <name>dfs.namenode.http-address</name> 
        <value>hadoop102:9870</value> 
    </property> 
  <!-- SecondaryNameNode web 端访问地址--> 
    <property> 
        <name>dfs.namenode.secondary.http-address</name> 
        <value>hadoop104:9868</value> 
    </property> 
</configuration> 

image

之前核心配置文件中NameNode地址hdfs://hadoop102:8020相当于是hadoop内部通讯地址,
现在NameNode是HDFS需要用户在web界面上访问,不需要操作命令行,即也需要对外暴露一个接口hadoop102:9870

YARN 配置文件yarn-site.xml​

vim yarn-site.xml
修改内容如下
<?xml version="1.0" encoding="UTF-8"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 
<configuration> 
    <!-- 指定 MR 走 shuffle --> 
    <property> 
        <name>yarn.nodemanager.aux-services</name> 
        <value>mapreduce_shuffle</value> 
    </property> 
 
    <!-- 指定 ResourceManager 的地址--> 
    <property> 
        <name>yarn.resourcemanager.hostname</name> 
        <value>hadoop103</value> 
    </property> 
 
    <!-- 环境变量的继承 --> 
    <property> 
        <name>yarn.nodemanager.env-whitelist</name> 
      
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value> 
    </property> 
</configuration> 

image

MapReduce 配置文件mapred-site.xml​

vim mapred-site.xml
修改内容如下
<?xml version="1.0" encoding="UTF-8"?> 
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?> 
 
<configuration> 
  <!-- 指定 MapReduce 程序运行在 Yarn 上 --> 
    <property> 
        <name>mapreduce.framework.name</name> 
        <value>yarn</value> 
    </property> 
</configuration> 

image

分发配置好的 Hadoop 配置文件

xsync /opt/module/hadoop-3.3.1/etc/hadoop/

image

启动集群

配置 workers

cd $HADOOP_HOME/etc/hadoop
vim /opt/module/hadoop-3.1.3/etc/hadoop/workers

image

该文件中添加的内容结尾不允许有空格

文件中不允许有空行。

同步配置文件

xsync /opt/module/hadoop-3.3.1/etc

image

启动

初始化(只有第一次需要)

hdfs namenode -format

image

启动 HDFS

回到原目录
cd /opt/module/hadoop-3.3.1
进入sbin目录
cd sbin
运行start-dfs.sh
./start-dfs.sh

image

在三台节点运行jps命令检查

jps

image

image

image

启动 YARN

进入hadoop103

进入原目录

cd /opt/module/hadoop-3.3.1
进入sbin目录
cd sbin
运行start-yarn.sh​
./start-yarn.sh

image

再次在三台节点运行jps命令检查

image

image

image

Web 端查看

HDFS 的 NameNode
http://192.168.159.102:9870

image

YARN 的 ResourceManager
http://192.168.159.103:8088

image

​成功 POWER!​

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Q3_SkyAsh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值