CentOS下Hadoop完全分布式集群配置与单点启动测试

目录

一、集群部署规划

二、配置集群

(1)核心配置文件

    ①core-site.xml

(2)HDFS配置文件

    ①hadoop-env.sh

    ②配置hdfs-site.xml

(3)YARN配置文件

    ①配置yarn-env.sh

    ②配置yarn-site.xml

(4)MapReduce配置文件

    ①mapred-env.sh

    ②mapred-site.xml

(5)格式化各个节点

三、集群的单点启动

四、集群的单点关闭


一、集群部署规划

 hadoop01hadoop03hadoop04
HDFS

NameNode

DataNode

DataNode

SecondaryNameNode

DataNode

YARNNodeManager

ResourceManager

NodeManager

NodeManager

注意:下文中涉及到一些配置文件的修改,有些文件已经在伪分布式集群中配置过,这里没有详细写,因此请参考我之前关于伪分布式搭建的两篇文章。

Hadoop2.7.3搭建伪分布式集群:https://blog.csdn.net/mango_ZZY/article/details/109138209

Hadoop2.7.3配置Yarn资源管理器:https://blog.csdn.net/mango_ZZY/article/details/109138209

二、配置集群

注意:这些文件在所有节点上都要更改,可以先改一个,然后分发给其他节点,具体分发步骤可以参考我的其他文章。!!!

(1)核心配置文件

    ①core-site.xml

      进入hadoop-2.7.3下的etc文件,配置core-site.xml,这里我们把hadoop01当成Namenode,之前伪分布式集群配置过了,因此不用改

<property>
<name>fs.defaultFS</name>
    <value>hdfs://hadoop01:9000</value>
</property>

<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/hadoop-2.7.3/data/tmp</value>
</property>

(2)HDFS配置文件

    ①hadoop-env.sh

      在搭建伪分布式的时候配置过,因此不用修改。

vim hadoop-env.sh

export JAVA_HOME=/usr/local/java/jdk1.8.0_241

    ②配置hdfs-site.xml

  • 这里的副本数改回了3。
  • secondary.namenode放在了hadoop04。
<configuration>

<!-- 指定HDFS副本的数量 -->
<property>
        <name>dfs.replication</name>
        <value>3</value>
</property>

<!-- 指定Hadoop辅助名称节点主机配置 -->
<property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>hadoop04:50090</value>
</property>

</configuration>

(3)YARN配置文件

    ①配置yarn-env.sh

      之前搭建伪分布式的时候已经配置过,这里省略。

vim yarn-env.sh

export JAVA_HOME=/usr/local/java/jdk1.8.0_241

    ②配置yarn-site.xml

      要把ResourceManager从hadoop01改成hadoop03。

<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>

<!-- 指定YARN的ResourceManager的地址 -->
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop03</value>
</property>

(4)MapReduce配置文件

    ①mapred-env.sh

      之前搭建伪分布式的时候已经配置过,这里省略。

vim mapred-env.sh

export JAVA_HOME=/usr/local/java/jdk1.8.0_241

    ②mapred-site.xml

      之前搭建伪分布式的时候已经配置过,这里省略。

 

(5)格式化各个节点

        如果集群是第一次启动,需要格式化NameNode。

[root@hadoop01 hadoop-2.7.3]# hadoop namenode -format

        如果集群之前启动过,还想进行格式化的话,要先删掉logs日志,再进行格式化NameNode。

rm -rf data/ logs/

       注意:要把分布式集群中的每个节点都格式化!!

三、集群的单点启动

首先说一下为什么要测试单节点启动,而不能群起。因为还没有设置SSH免密登录,因此如果群起的话,各个节点之间的访问需要输入密码,很麻烦,下一篇我们将讲述如何设置SSH免密登录。

  ①在hadoop01上启动NameNode

[root@hadoop01 hadoop-2.7.3]# hadoop-daemon.sh start namenode

  ②在hadoop01上启动DataNode

[root@hadoop01 hadoop-2.7.3]# hadoop-daemon.sh start datanode

  ③在hadoop03上启动DataNode

[root@hadoop03 hadoop-2.7.3]# hadoop-daemon.sh start datanode

  ④在hadoop04上启动DataNode

[root@hadoop04 hadoop-2.7.3]# hadoop-daemon.sh start datanode

至此,集群已经成功启动了!

四、集群的单点关闭

  ①在hadoop01上关闭NameNode和DataNode

hadoop01:

[root@hadoop01 hadoop-2.7.3]# sbin/hadoop-daemon.sh stop datanode

[root@hadoop01 hadoop-2.7.3]# sbin/hadoop-daemon.sh stop namenode

  ②在hadoop03上关闭DataNode

hadoop03:

[root@hadoop03 hadoop-2.7.3]# sbin/hadoop-daemon.sh stop datanode

  ③在hadoop04上关闭DataNode

hadoop04:

[root@hadoop04 hadoop-2.7.3]# sbin/hadoop-daemon.sh stop datanode

至此,所有节点全部关闭了!

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值