Hadoop2.7.3全分布式环境搭建

  • 说明:
    完成Hadoop全分布式环境搭建,需准备至少3台虚拟机(niit01 niit02 niit03)
  • 环境:
    VMWare + Centos7 + JDK1.8+ Hadoop2.7.3
  • 主机规划:
    主节点:niit01
    从节点:niit02 , niit03

一、准备工作


  • 1、所有主机安装jdk
  • 2、所有主机都需要关闭防火墙
  • 3、所有主机都需要配置主机名映射关系 vi /etc/hosts
  • 4、配置免密码登录(配置两两之间的免密码登录)
    所有的机器都需要产生一对密钥:公钥和私钥
    ssh-keygen -t rsa
    所有主机需要执行
    ssh-copy-id -i .ssh/id_rsa.pub root@niit01
    ssh-copy-id -i .ssh/id_rsa.pub root@niit02
    ssh-copy-id -i .ssh/id_rsa.pub root@niit03
    
  • 5、保证每台机器的时间是一样的
    如果不一样的话,我们在执行MapReduce程序的时候可能会存在问题.。 解决方案:
    1)搭建一个时间同步的服务器,网上很多教程可以使用
    2)使用putty/shell工具,可以简单实现这个功能:
    date -s 2018-07-30后面必须敲一个回车

二、在主节点上进行安装配置(niit01)


  • 上传hadoop安装包,解决配置环境变量
    tar -zvxf /tools/hadoop-2.7.3.tar.gz -C /training/
    注意需要同时设置:niit01 niit02 niit03

    export HADOOP_HOME=/training/hadoop-2.7.3
    export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
    
  • 创建tmp目录
    mkdir /training/hadoop-2.7.3/tmp

  • 修改配置文件
    1)hadoop-env.sh (参考伪分布模式)
    vi /training/hadoop-2.7.3/etc/hadoop/hadoop-env.sh
    需要这只jdk路径
    2)hdfs-site.xml
    vi /training/hadoop-2.7.3/etc/hadoop/hdfs-site.xml
    添加如下信息:
    <configuration></configuration>之间添加

    <property>
     <name>dfs.replication</name>
     <value>2</value>
    </property>
    <property>
     <name>dfs.permissions</name>
     <value>false</value>
    </property>
    

    3)core-site.xml
    vi /training/hadoop-2.7.3/etc/hadoop/core-site.xml
    添加如下信息:

    <property>
       <name>fs.defaultFS</name>
       <value>hdfs://niit01:9000</value>
    </property>              
    <property>
       <name>hadoop.tmp.dir</name>
       <value>/training/hadoop-2.7.3/tmp</value>
    </property>
    

    4)mapper-site.xml
    vi /training/hadoop-2.7.3/etc/hadoop/mapper-site.xml
    添加如下信息:

    <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>
    <!-- 历史服务器端地址 -->
    <property>
    <name>mapreduce.jobhistory.address</name>
    <value>niit04:10020</value>
    </property>
    <!-- 历史服务器 web 端地址 -->
    <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>niit04:19888</value>
    </property>
    

    5)yarn-site.xml

    vi /training/hadoop-2.7.3/etc/hadoop/yarn-site.xml
    添加如下信息:

    <!--Yarn的主节点RM的位置-->
    <property>
       <name>yarn.resourcemanager.hostname</name>
       <value>niit01</value>
    </property>
    
    <!--MapReduce运行方式:shuffle洗牌-->
    <property>
       <name>yarn.nodemanager.aux-services</name>
       <value>mapreduce_shuffle</value>
    </property> 
    <!-- 日志聚集功能使能 -->
    <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
    </property>
    <!-- 日志保留时间设置7天 -->
    <property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>604800</value>
    </property>
    <!--配置Log Server -->
    <property>
    <name>yarn.log.server.url</name>
    <value>http://niit01:19888/jobhistory/logs</value>
    </property>
    

    6)slaves
    vi /training/hadoop-2.7.3/etc/hadoop/slaves
    添加如下信息:
    niit02
    niit03

  • 格式化nameNode
    hdfs namenode -format
    如格式化日志,会打印出如下日志信息:
    Storage directory /tmp/hadoop-root/dfs/name has been successfully formatted.

三、分发到从节点


将上述配置好后的环境即hadoop2.7.3整个目录分别远程复制到其他两台从节点上(niit02,niit03)上:

  • 将niit01上的hadoop环境复制到niit02 niit03
    scp -r hadoop-2.7.3/ root@niit02:/training/
    scp -r hadoop-2.7.3/ root@niit03:/training/

四、在主节点(niit01)上启动


  • 在主节点(niit01)上启动hdfs
    start-all.sh

五、验证结果


  • jps查看进程
    主节点:
    NameNode ResourceMnager SecondaryNameNode
    从节点:
    DataNode NodeManager
  • 浏览器查看
    HDFS: http://niit01:50070
    YARN:http://niit01:8088
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

若兰幽竹

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值