hdfs分布式搭建

模拟环境:四台虚拟机node1、node2、node3、node4

node1node2node3node4
NameNodeSecondaryNameNode
DataNode-1DataNode-2DataNode-3

/etc/hosts

环境准备

四台虚拟机 :

  • /etc/hosts

    192.168.184.61  node1
    192.168.184.62  node2
    192.168.184.63  node3
    192.168.184.64  node4
    
  • 安装jdk并配置java环境变量

  • hadoop-2.6.5

1. ssh免密钥设置

  1. 在四台机器上执行(/root/目录下)

    ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

  2. 在node1上将id_dsa.pub 拷贝到 authorized_keys 中,将node1上的 authorized_keys 拷贝到node2上

    cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

    scp ~/.ssh/authorized_keys node2:/root/.ssh/

  3. 在node2中,将id_dsa.pub 追加到 authorized_keys 中,将node2的 authorized_keys 拷贝到node3上

  4. 在node3中,将id_dsa.pub 追加到 authorized_keys 中,将node2的 authorized_keys 拷贝到node4上

  5. 在node3中,将id_dsa.pub 追加到 authorized_keys

  6. 将node4中的authorized_keys分别拷贝到node1,node2,node3中

2. Hadoop安装及配置

上传文件hadoop-2.6.5.tar.gz至node1,解压至/opt/ 目录下

tar -zxvf hadoop-2.6.5.tar.gz -C /opt/

进入到hadoop安装目录下,配置

cd /opt/hadoop-2.6.5/etc/hadoop

需要配置4个配置文件

  1. hadoop-env.sh

    环境配置,配置JAVA_HOME(自己的jdk目录)

    JAVA_HOME=/usr/java/jdk1.8.0_221-amd64

  2. core-site.xml

    <configuration>
        <!-- namenode 节点,访问HDFS的时候路径的默认前缀 -->
      <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node1:9000</value>
      </property>
        <!-- 指定hadoop的临时目录位置 -->
      <property>
        <name>hadoop.tmp.dir</name>
        <value>/var/theonly/hadoop/full</value>
      </property>
    </configuration>
    
  3. hdfs-site.xml

    <configuration>
      <!-- 指定block副本数 -->
      <property>
        <name>dfs.replication</name>
        <value>2</value>
      </property>
      <!-- 指定secondarynamenode所在的位置 -->
      <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>node2:50090</value>
      </property>
    </configuration>
    
  4. slaves

    DataNode所在的节点

    node2
    node3
    node4
    

3. hadoop环境变量

vim /etc/profile

在结尾添加java和hadoop的环境变量

export JAVA_HOME=/usr/java/jdk1.8.0_221-amd64
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/opt/hadoop-2.6.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

4. 格式化hadoop并启动

namenode格式化:在node1上执行:hdfs namenode -format

启动:start-dfs.sh(四台服务器上哪一台执行都可以)

jps 查看java进程
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

停止:stop-dfs.sh

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

theONLY0318

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值