hadoop2.6集群安装(有问题请留言,持续维护,分享使人快乐,学习也使人快乐,619你在哪)

  1. 提交安装好zookeeper (看本人其他文章或百度)
  2. 三个节点集群 
  3. 官网下载上传到 /data/app 解压 tar zxf hadoop-2.6.5.tar.gz (每个节点一样,建议上传压缩包再解压,速度快)
  4. 软链 ln -sf /data/app/hadoop-2.6.5 /usr/local/hadoop
  5. 配置环境变量  vim /etc/profile 
  6. 生效 
  7. 配置hadoop  cd /usr/local/hadoop/etc/hadoop/
  8. 配置jdk给hadoop 这三个有注释的放开 效果
  9. 配置 vim core-site.xml <?xml version="1.0" encoding="UTF-8"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    <configuration>
      <property>
        <name>ha.zookeeper.quorum</name>
        <value>node1:2181,node2:2181,node3:2181</value>
      </property>
      <property>
        <name>fs.defaultFS</name>
        <value>hdfs://az</value>
      </property>
      <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/tmp</value>
      </property>
    </configuration>
  10. vim hdfs-site.xml<?xml version="1.0" encoding="UTF-8"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    <configuration>
      <property>
        <name>dfs.nameservices</name>
        <value>az</value>
      </property>
      <property>
        <name>dfs.ha.namenodes.az</name>
        <value>nn1,nn2</value>
      </property>
      <property>
        <name>dfs.namenode.rpc-address.az.nn1</name>
        <value>node1:8020</value>
      </property>
      <property>
        <name>dfs.namenode.rpc-address.az.nn2</name>
        <value>node2:8020</value>
      </property>
      <property>
        <name>dfs.namenode.http-address.az.nn1</name>
        <value>node1:50070</value>
      </property>
      <property>
        <name>dfs.namenode.http-address.az.nn2</name>
        <value>node2:50070</value>
      </property>
      <property>
        <name>dfs.namenode.shared.edits.dir</name>
        <value>qjournal://node1:8485;node2:8485;node3:8485/az</value>
      </property>
      <property>
        <name>dfs.client.failover.proxy.provider.az</name>
        <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
      </property>
      <property>
        <name>dfs.ha.fencing.methods</name>
        <value>sshfence</value>
      </property>
      <property>
        <name>dfs.ha.fencing.ssh.private-key-files</name>
        <value>/root/.ssh/id_rsa</value>
      </property>
      <property>
        <name>dfs.journalnode.edits.dir</name>
        <value>/usr/local/hadoop/tmp/jn</value></property>
      <property>
        <name>dfs.ha.automatic-failover.enabled</name>
        <value>true</value>
      </property>
      <property>
        <name>dfs.replication</name>
        <value>2</value><!-- 学习中ssd节省空间 -->
      </property>
      <property>
        <name>dfs.hosts.exclude</name>
        <value>/usr/local/hadoop/etc/hadoop/excludes</value><!-- 删除节点是用-->
      </property>
    </configuration>
  11. vim yarn-site.xml<?xml version="1.0"?>
    <configuration>
      <property>
        <name>yarn.resourcemanager.ha.enabled</name>
        <value>true</value>
      </property>
      <property>
        <name>yarn.resourcemanager.cluster-id</name>
        <value>azyarn</value>
      </property>
      <property>
        <name>yarn.resourcemanager.ha.rm-ids</name>
        <value>rm1,rm2</value>
      </property>
      <property>
        <name>yarn.resourcemanager.hostname.rm1</name>
        <value>node1</value>
      </property>
      <property>
        <name>yarn.resourcemanager.hostname.rm2</name>
        <value>node2</value>
      </property>
      <property>
        <name>yarn.resourcemanager.webapp.address.rm1</name>
        <value>node1:8088</value>
      </property>
      <property>
        <name>yarn.resourcemanager.webapp.address.rm2</name>
        <value>node2:8088</value>
      </property>
      <property>
        <name>yarn.resourcemanager.zk-address</name>
        <value>node1:2181,node2:2181,node3:2181</value>
      </property>
      <property>
        <name>yarn.resourcemanager.ha.automatic-failover.zk-base-path</name>
        <value>/yarn-ha</value>
      </property>
      <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
      </property>
      <property>
        <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
      </property><!--一个节点可用的最大内存 -->
      <property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <value>3072</value>
      </property>
      <property>
        <name>yarn.nodemanager.vmem-pmem-ratio</name>
        <value>4.1</value>
      </property>
      <property>
        <name>yarn.nodemanager.resource.cpu-vcores</name>
        <value>2</value>
      </property>
      <!-- 分配给AM单个容器可申请的最大资源-->
      <property>
        <name>yarn.scheduler.maximum-allocation-mb</name>
        <value>2048</value>
      </property>
      <!-- 分配给AM单个容器可申请的最小资源-->
      <property>
        <name>yarn.scheduler.minimum-allocation-mb</name>
        <value>256</value>
      </property>
      <property>
        <name>yarn.scheduler.maximum-allocation-vcores</name>
        <value>2</value>
      </property>
      <property>
        <name>yarn.scheduler.minimum-allocation-vcores</name>
        <value>1</value>
      </property>
    </configuration>
  12. vim mapred-site.xml <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    <configuration>
      <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
      </property>
    </configuration>
     
  13. vim slaves node1
    node2
    node3
  14. scp到其他节点 配置完成
  15. 先启动zookeeper
  16. 三个节点都启动 journalnode     hadoop-daemon.sh start journalnode
  17. 节点node1 格式化 namenode   hdfs namenode -format 启动  hadoop-daemon.sh start namenode
  18. 节点node2 同步  hdfs namenode -bootstrapStandby
  19. 节点node1 格式化 zkfc hdfs zkfc -formatZK
  20. 启动 stop-all.sh   start-all.sh
  21. ui 查看 http://192.168.136.132:50070/  
  22. yarn 高可用 所以另一个节点单独启动  start-yarn.sh (为了省事)
  23. 测试
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值