Hadoop3.0集群安装部署

本文档详细介绍了在JDK1.8环境下配置和启动Hadoop 3.1.3集群的步骤,包括解压安装包、修改配置文件(如core-site.xml、yarn-site.xml等)、设置工作节点、初始化HDFS以及启动所有服务。同时,检查了启动节点并提供了问题解决建议。
摘要由CSDN通过智能技术生成
前提配置:jdk1.8
  • 解压Hadoop(根据自己情况来)

    • tar -zxf /usr/local/install_package/hadoop-3.1.3.tar.gz -C /opt/
      
  • 修改配置文件,进入到etc/hadoop目录下

    • 修改hadoop.env.sh 在文件末尾追加

      • #添加jdk地址
        export JAVA_HOME=/usr/java/jdk1.8.0_162
        
        #设置启动节点,防止启动时报错,2.0可以省略
        export HDFS_NAMENODE_USER=root
        export HDFS_DATANODE_USER=root
        export HDFS_SECONDARYNAMENODE_USER=root
        export YARN_RESOURCEMANAGER_USER=root
        export YARN_NODEMANAGER_USER=root
        
    • 修改core-site.xml 在 configuration 中添加以下内容

      •   <!-- 设置data存放路径 -->
            <property>
                <name>hadoop.tmp.dir</name>
                <value>/opt/hadoop-3.1.3/data</value>
            </property>
          <!-- 设置主节点 -->
            <property>
                <name>fs.defaultFS</name>
                <value>hdfs://master:8020</value>
            </property>
        
    • 修改yarn-site.xml 在 configuration 中添加以下内容

      •     <!-- 指定shuffle方式 -->
            <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
            </property>
        
            <!-- 指定ResourceManager地址 -->
            <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>master</value>
            </property>
        
            <!-- 取消虚拟内存限制 -->
            <property>
                <name>yarn.nodemanager.vmem-check-enabled</name>
                <value>false</value>
            </property>
        
            <!-- 设置最小内存-->
            <property>
                <name>yarn.scheduler.minimum-allocation-mb</name>
                <value>1024</value>
            </property>
        
            <!-- 设置最小cpu核数-->
            <property>
                <name>yarn.scheduler.minimum-allocation-vcores</name>
                <value>1</value>
            </property>
        
            <!-- 开启log日志-->
            <property>
                <name>yarn.log-aggregation-enable</name>
                <value>true</value>
            </property>
        
    • 修改works

      • #添加设置三台主机
        #去掉localhost
        master
        slave1
        slave2
        
    • 修改hdfs-site.xml 在 configuration 中添加以下内容

      •     <!-- 指定副本数 -->
            <property>
                <name>dfs.replication</name>
                <value>3</value>
            </property>
        
    • 修改mapred-site.xml 在 configuration 中添加以下内容

      •     <!-- 指定MapReduce运行在yarn上 -->
            <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
            </property>
        
  • 分发Hadoop到另外两台电脑上

    • scp -r /opt/hadoop-3.1.3 slave1:/opt/
      scp -r /opt/hadoop-3.1.3 slave2:/opt/
      
  • 初始化

    • #切换到bin目录下。
      #格式化完后找到 "successfully formatted" 表示格式化成功
      ./hdfs namenode -format
      
      common.Storage: Storage directory /opt/hadoop-3.1.3/data/dfs/name has been successfully formatted.
      
  • 启动

    • #切换到sbin目录下
      cd ../sbin/
      #启动Hadoop
      ./start-all.sh
      
  • 检查启动节点

    • jps
      13058 DataNode
      13266 SecondaryNameNode
      12931 NameNode
      14038 Jps
      13544 ResourceManager
      13704 NodeManager
      
      #六个节点全部启动表示启动成功
      

如有问题可在下方留言
感谢大家的观看!!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

墨染~残阳

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值