hadoop简单集群搭建

之前已经实现单台的伪分布集群。现在通过四台服务器来实现集群分布式

1.ssh-keygen -t rsa
2.使用ssh-copy-id -i ~/.ssh/id_dsa.pub hadoopX分发到各个主机上
3.配置hadoop-env.sh
export JAVA_HOME =
4.配置core-site.xml

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://hadoop0:8020</value>
</property>

5.配置hdsf-site.xml

<configuration>
    <property>
            <name>dfs.namenode.data.dir</name>
            <value>/home/hadoop/bda/tmp/dfs/name</value>
    </property>

     <property>
            <name>dfs.datanode.data.dir</name>
            <value>/home/hadoop/bda/tmp/dfs/data</value>
    </property>

</configuration>

6.配置yarn-site.xml

<configuration>

    <!-- Site specific YARN configuration properties -->

    <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>hadoop0</value>
    </propertry>

    <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
    </propertry>

</configuration>

7.配置mapreduce-site.xml

 <configuration>
    <property>
            <name>mapreduce.framework.name</name>
            <value>yarn<value>
    </property>
</configuration>

8.配置slave
hadoop1
hadoop2
hadoop3

9.分发hadoop 及配置文件
scp -r ~/bda hadoop@hadoop1:~/
scp -r ~/bda hadoop@hadoop2:~/
scp -r ~/bda hadoop@hadoop3:~/

scp ~/.bashrc hadoop@hadoop1:~/
scp ~/.bashrc hadoop@hadoop2:~/
scp ~/.bashrc hadoop@hadoop3:~/

10.格式化
hdfs namenode -format

11.启动
/sbin/start-all.sh

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值