【Hadoop3.3.6全分布式环境搭建】

  • 说明:

    • 完成Hadoop全分布式环境搭建,需准备至少3台虚拟机(master slave01 slave02)
  • 环境:

    • VMWare + Centos7 + JDK1.8+ Hadoop3.3.6
  • 主机规划:

    • 主节点:master
    • 从节点:slave01 , slave02
      在这里插入图片描述

一、准备工作

  • 1、所有主机安装jdk

    • 上传jdk-8u171-linux-x64.tar.gz到/root目录下,然后执行下面的命令进行解压安装

      tar -zvxf jdk-8u171-linux-x64.tar.gz -C /opt/software/
      
    • 配置环境变量,执行:
      vim ~/.bash_profile
      在.bash_profile文件中添加如下信息:

      export JAVA_HOME=/opt/software/jdk1.8.0_171
      export JRE_HOME=$JAVA_HOME/jre
      export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
      export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin;
      
    • 让环境变量生效
      source ~/.bash_profile

    • 验证jdk是否安装成功
      java -version

  • 2、所有主机都需要关闭防火墙

    systemctl stop firewalld.service
    systemctl disable firewalld.service
    
  • 3、所有主机都需要配置主机名映射关系 vim /etc/hosts,在文件末尾添加如下内容,注意:IP地址改成你自己环境的IP地址

    192.168.36.135 master
    192.168.36.136 slave1
    192.168.36.137 slave2
    
  • 4、配置免密码登录(配置两两之间的免密码登录)
    所有的机器都需要产生一对密钥:公钥和私钥
    ssh-keygen -t rsa
    所有主机需要执行

    ssh-copy-id -i .ssh/id_rsa.pub root@master
    ssh-copy-id -i .ssh/id_rsa.pub root@slave01
    ssh-copy-id -i .ssh/id_rsa.pub root@slave02
    
  • 5、保证每台机器的时间是一样的(可选做
    如果不一样的话,我们在执行MapReduce程序的时候可能会存在问题.。 解决方案:
    1)搭建一个时间同步的服务器,网上很多教程可以使用
    2)使用putty/shell工具,可以简单实现这个功能:
    date -s 2024-03-16后面必须敲一个回车

二、在主节点上进行安装配置(master)

  • 上传hadoop安装包,解决配置环境变量
    tar -zvxf hadoop-3.3.6.tar.gz -C /opt/software/
    注意需要同时设置:master slave1 slave2

    export HADOOP_HOME=/opt/software/hadoop-3.3.6
    export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
    
  • 创建用于格式化和数

  • 12
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
对于Hadoop 3.3.6的完分布式配置,你可以按照以下步骤进行操作: 1. 确保你已经安装了Java并设置了正确的环境变量。 2. 下载Hadoop 3.3.6的二进制文件并解压缩到你想要安装的目录。 3. 打开Hadoop配置文件目录,并编辑hadoop-env.sh文件,在其中设置JAVA_HOME变量为Java安装路径。例如: ``` export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 ``` 4. 编辑core-site.xml文件,设置以下属性: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/path/to/tmp/dir</value> </property> </configuration> ``` 将`fs.defaultFS`设置为你的Hadoop集群的主节点和端口。将`hadoop.tmp.dir`设置为一个临时目录,用于存储Hadoop数据。 5. 编辑hdfs-site.xml文件,设置以下属性: ``` <configuration> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/path/to/name/dir</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/path/to/data/dir</value> </property> </configuration> ``` 将`dfs.replication`设置为你想要的副本数(通常为3)。将`dfs.namenode.name.dir`设置为主节点上用于存储元数据的目录,将`dfs.datanode.data.dir`设置为数据节点上用于存储块数据的目录。 6. 编辑mapred-site.xml文件,设置以下属性: ``` <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` 将`mapreduce.framework.name`设置为yarn,以使用YARN作为Hadoop的资源管理器。 7. 编辑yarn-site.xml文件,设置以下属性: ``` <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> </configuration> ``` 将`yarn.nodemanager.aux-services`设置为mapreduce_shuffle,将`yarn.nodemanager.aux-services.mapreduce.shuffle.class`设置为org.apache.hadoop.mapred.ShuffleHandler,将`yarn.resourcemanager.hostname`设置为你的主节点的主机名或IP地址。 8. 配置完毕后,启动Hadoop集群的各个组件,包括NameNode、DataNode、ResourceManager和NodeManager。可以使用以下命令启动: ``` $ start-dfs.sh $ start-yarn.sh ``` 确保没有启动过程中出现任何错误或异常。 9. 最后,可以使用Hadoop命令行工具或Hadoop API在集群上执行任务。 这些是基本的完分布式配置步骤,根据你的需求和环境可能还需要进行其他配置调整。希望能对你有所帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

若兰幽竹

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值