hadoop分布式集群搭建

Hadoop集群搭建

*集群规划----分布式集群搭建的核心就是集群规划。hadoop采取master-slave结构(主-从结构),集群规划需要遵循主从分离原则,简单来说,就是namenode和datanode不能在一个结点上。做好集群规划之后,按以下步骤执行搭建:

(以三台主机为例,假设主机名为PC01PC02PC03PC01是主节点)

1、设置静态ip=======集群每台机器都要设置

2、修改主机名=======集群每台机器都要配置

3、创建映射=======集群每台机器都要配置,而且每台都要映射集群所有节点的ip

192.168.122.1    PC01

192.168.122.2    PC02

192.168.122.3    PC03

4、关闭防火墙=======集群每台机器都要设置

5、安装JDK=======集群每台机器都要安装

6ssh免密登录=======主节点到每个从节点,每个从节点到主节点,主节点到自己

PC01==>PC01PC02、PC03

7、安装hadoop

a、解压下载的hadoop

#tar -zxvf hadoop-2.7.3.tar.gz -C /opt

b、配环境变量vim /etc/profile

export HADOOP_HOME=/opt/hadoop-2.7.3

export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATH

以上七个步骤同单节点安装都一样(映射多了从节点的),参见HadoopDay01笔记

8、修改配置文件(标黄内容按自己实际情况修改)

a、hadoop-env.sh

    export JAVA_HOME= (你的JDK安装路径)

b、core-site.xml

<configuration> 

 <!-- 指定HDFSnamenode的通信地址 -->

    <property> 

       <name>fs.default.name</name> 

       <value>hdfs://PC01(主节点):9000</value> 

    </property> 

  <!-- 指定hadoop运行时产生文件的存放目录 -->

    <property> 

        <name>hadoop.tmp.dir</name> 

        <value>/opt/data</value> 

    </property> 

</configuration>

c、hdfs-site.xml

<configuration>

    <property>

        <name>dfs.namenode.name.dir</name>

        <value>/opt/data/name</value>

    </property>

    <property>

        <name>dfs.datanode.data.dir</name>

        <value>/opt/data/data</value>

    </property>

    <property>

        <name>dfs.replication</name>

        <value>2</value>

    </property>

    <property>

        <name>dfs.secondary.http.address</name>

        <value>PC01(主节点):50090</value>

    </property>

</configuration>

d、mapred-site.xml

<configuration> 

    <property> 

        <name>mapreduce.framework.name</name> 

        <value>yarn</value> 

    </property> 

</configuration>

e、yarn-site.xml 

<configuration> 

     <!-- 指定YARN的老大(ResourceManager)的地址 -->

    <property> 

        <name>yarn.resourcemanager.hostname</name> 

        <value>PC01(主节点)</value> 

    </property> 

     <!-- reducer获取数据的方式 -->

    <property> 

        <name>yarn.nodemanager.aux-services</name> 

        <value>mapreduce_shuffle</value> 

    </property> 

</configuration>

f、vim slaves

//文件中添加每个从节点的主机名

PC02

PC03

9、复制hadoop到其它节点

因为设置了免密登陆,所以直接使用命令

scp -r /opt/hadoop-2.7.3 PC02:/opt

scp -r /opt/hadoop-2.7.3 PC03:/opt

10、复制/etc/profile到其它节点,并登陆到那台主机source使之生效(或者重启PC02PC03)

scp  /etc/profile PC03:/etc

scp /etc/profile PC03:/etc

11.启动

hadoop namenode -format  -------格式化namenode

start-all.sh   启动hdfs

PC01(主节点ip):50070    ----网页查看


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值