hadoop2.7.2基本配置(yarn)模式

  1. 环境配置
    a).安装oracle jdk并配置好JAVA_HOME,将如下代码追加到/etc/profile文件末尾
    export JAVA_HOME=/usr/local/jdk1.8.0_73
    export JRE_HOME=${JAVA_HOME}/jre
    export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
    export PATH=$PATH:${JAVA_HOME}/bin

     不要忘了source /etc/profile哦!
    b).创建hadoop用户

    # 创建hadoop用户
    useradd -m hadoop
    
    #设置hadoop用户密码
    passwd hadoop

     

  2. 切换到hadoop用户下将下载hadoop2.7.2压缩包上传至服务器并解压到/home/hadoop/hadoop-2.7.2目录,
    a).将hadoop的bin配置到环境变量中,追加到/etc/profile文件末尾
    export HADOOP_HOME=/home/hadoop/hadoop-2.7.2
    export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin

    b).进入hadoop_home/etc/hadoop/目录,修改如下文件内容
    1.修改hadoop-env.sh文件,配置JAVA_HOME

    export JAVA_HOME=/usr/local/jdk1.8.0_73

    2.修改core-site.xml文件添加如下内容

    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://hadoop-master:9000</value>
        </property>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>file:/home/hadoop/hadoop-2.7.2/tmp</value>
        </property>
    </configuration>

    3.修改hdfs-site.xml文件,添加如下内容

    <configuration>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/home/hadoop/hadoop-2.7.2/dfs/name</value>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>file:/home/hadoop/hadoop-2.7.2/dfs/data</value>
        </property>
        <property>
            <name>dfs.replication</name>
            <value>2</value>
        </property>
        <property>
            <name>dfs.namenode.secondary.http-address</name>
            <value>hadoop-master:9001</value>
        </property>
        <property>
            <name>dfs.webhdfs.enabled</name>
            <value>true</value>
        </property>
    </configuration>

    4.修改mapred-site.xml文件,添加如下内容

    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
        <property>
            <name>mapreduce.jobhistory.address</name>
            <value>hadoop-master:10020</value>
        </property>
        <property>
            <name>mapreduce.jobhistory.webapp.address</name>
            <value>hadoop-master:19888</value>
        </property>
    </configuration>

    5.修改yarn-site.xml文件,添加如下内容

    <configuration>
        <property>
            <name>yarn.resourcemanager.address</name>
            <value>hadoop-master:8032</value>
        </property>
        <property>
            <name>yarn.resourcemanager.scheduler.address</name>
            <value>hadoop-master:8030</value>
        </property>
        <property>
            <name>yarn.resourcemanager.resource-tracker.address</name>
            <value>hadoop-master:8031</value>
        </property>
        <property>
            <name>yarn.resourcemanager.admin.address</name>
            <value>hadoop-master:8033</value>
        </property>
        <property>
            <name>yarn.resourcemanager.webapp.address</name>
            <value>hadoop-master:8088</value>
        </property>
        <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>hadoop-master</value>
        </property>
        <property>
            <name>yarn.resourcemanager.scheduler.class</name>
            <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler</value>
        </property>
        <property>
            <name>yarn.scheduler.maximum-allocation-mb</name>
            <value>1536</value>
        </property>
    
    	
        <!-- config node manager -->
        <property>
            <name>yarn.nodemanager.resource.memory-mb</name>
            <value>1536</value>
        </property>
        <property>
            <name>yarn.nodemanager.resource.cpu-vcores</name>
            <value>8</value>
        </property>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
        
    </configuration>

    6.修改slaves文件,将所有从节点添加到该文件中,如:

    #这里的节点名次需要和/etc/hosts文件中配置映射的名称一致
    hadoop-slave1
    hadoop-slave2

     

  3. 修改主机名为hadoop-master(/etc/hostname)
    注意:每一个从节点都要修改相应的hostname,如hadoop-slave1,hadoop-slave2,.....

  4. 在主节点上格式化hdfs,hadoop namenode -format

  5. 修改hosts文件(每一个主从节点都要配置),将主从节点都配置进去,注释原有的localhost,如下:

    #127.0.0.1      localhost
    #127.0.1.1      ubuntu
    
    #主节点
    192.168.100.180 hadoop-master
    #从节点1
    192.168.100.181 hadoop-slave1
    #从节点2
    192.168.100.182 hadoop-slave2

     

  6. 将配置ssh免密码登,这里不赘述,参考:http://jingyan.baidu.com/article/f3ad7d0fe7bd0d09c2345b75.html

  7. 克隆当前配置的服务器系统到多个自己点或在多个从节点上重复1~5步骤。
    注意:1.克隆系统后记得修改/etc/hostname文件,/etc/hosts文件主从节点保持一致。
               2.克隆后需要修改子节点的ip地址,建议将主从节点的ip设置为静态IP。

  8. 通过以上配置后,基本完成hadoop的环境配置工作,可通过start-all.sh启动hadoop
    a).通过master的主机IP:8088访问hadoop的web管理界面,如图


    b).通过master的主机IP:50070访问hdfs的web管理界面

转载于:https://my.oschina.net/hzboy192/blog/689494

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值