Hadoop完全分布式环境

Hadoop完全分布式环境

前提条件

分布式结构说明

主机名称角色备注
centos01
NameNode

DataNode

ResourceManager

NodeManager
主节点
centos02
DataNode

NodeManager
从节点
centos03
DataNode

NodeManager
从节点

环境说明

名称版本备注
宿主系统Win7【64位】 
VMware12 
虚拟机镜像CentOS-6.5-x86_64-minimal.iso下载地址(不同版本):http://vault.centos.org/
jdkjdk-8u65-linux-x64.tar.gzlinux版
hadoophadoop-2.6.0-cdh5.7.0.tar.gzlinux版

软件安装路径

软件名称路径
jdk/software/jdk/jdk8
hadoop/software/hadoop/hadoop

主机名称

  • centos01【主】
  • centos02【从】
  • centos03【从】

主机网卡连接方式

  • NAT 静态固定IP
  • IP:
    • 192.168.66.66【主】
    • 192.168.66.77【从】
    • 192.168.66.88【从】

免密登录

  • 已经免密
  • 免密步骤
    1. ssh-keygen
    2. cat ~/.ssh/ad_rsa.pub >> authorized_keys

环境关键配置文件

  • /etc/hosts

     

    192.168.66.66 centos01
    192.168.66.77 centos02
    192.168.66.88 centos03
    
  • /etc/profile

     

    #jdk
    JAVA_HOME=/software/jdk/jdk8
    PATH=$JAVA_HOME/bin:$PATH
    CLASSPATH=.:$JAVA_HOME/lb/dt.jar:$JAVA_HOME/lib/tools.jar
    export JAVA_HOME PATH CLASSPATH
    
    #hadoop
    export HADOOP_HOME=/software/hadoop/hadoop
    export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
    
  • /software/hadoop/hadoop/etc/hadoop/hadoop-env.sh【将export JAVA_HOME=${JAVA_HOME在的地方进行修改}】

     

    。。。
    export JAVA_HOME=/software/jdk/jdk8
    。。。
    
  • /software/hadoop/hadoop/etc/hadoop/core-site.xml

     

    <?xml version="1.0" encoding="UTF-8"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    
    <configuration>
    
    <!--代码操作hdfs的文件地址-->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://centos01:8020</value>
    </property>
    
    <!--防止重启之后数据丢失-->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/software/hadoop/tmp</value>
    </property>
    
    </configuration>
    
  • /software/hadoop/hadoop/etc/hadoop/hdfs-site.xml 注意副本的数量(默认为3)

     

    <?xml version="1.0" encoding="UTF-8"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    
    <configuration>
    
    <!--副本-->
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    
    <!--NameNode的文件目录-->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/software/hadoop/tmp/dfs/name</value>
    </property>
    
    <!--DataNode的文件目录-->        
    <property>
        <name>dfs.namenode.data.dir</name>
        <value>file:/software/hadoop/tmp/dfs/data</value>
    </property>
    
    </configuration>
    
  • /software/hadoop/hadoop/etc/hadoop/slaves 这里添加节点

     

    centos01
    centos02
    centos03
    
  • /software/hadoop/hadoop/etc/hadoop/mapred-site.xml

     

    <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    
    <configuration>
    
    <!--mapreduce的框架名称-->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    
    <!--日志历史记录地址-->
    <property>
      <name>mapreduce.jobhistory.address</name>
      <value>centos01:10020</value>
      <description>MapReduce JobHistory Server IPC host:port</description>
    </property>
    
    <!--日志历史网页地址-->
    <property>
      <name>mapreduce.jobhistory.webapp.address</name>
      <value>centos01:19888</value>
      <description>MapReduce JobHistory Server Web UI host:port</description>
    </property>
    
    <!--日志存放地址(hdfs服务器上的位置)-->
    <property>
      <name>mapreduce.jobhistory.done-dir</name>
      <value>/history/done</value>
    </property>
    
    <!--日志存放地址(hdfs服务器上的位置)-->
    <property>
      <name>mapreduce.jobhistory.intermediate-done-dir</name>
      <value>/history/done_intermediate</value>
    </property>
    
    </configuration>
    
  • /software/hadoop/hadoop/etc/hadoop/yarn-site.xml 这里添加resourcemanager

     

    <?xml version="1.0"?>
    <configuration>
    
    <!--nodemanager版本-->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    
    <!--resourcemanager-->
    <property>
       <name>yarn.resourcemanager.hostname</name>
       <value>centos01</value>
    </property>
    
    <!--日志启用-->
    <property>
      <name>yarn.log-aggregation-enable</name>
      <value>true</value>
    </property>
    
    </configuration>
    

启动

  • 命令
    • sh /software/hadoop/hadoop/sbin/start-all.sh
    • jps
  • 执行结果
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

乘风御浪云帆之上

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值