HDFS 配置、启动命令、测试命令

  1. 对于 Linux 系统的目录进行规划
    a. 配置目录
    这里写图片描述
    b. 更改所属用户与用户组
    这里写图片描述
  2. 使用FileZilla上传所需要的安装包到software目录(hadoop-2.5.0 ,jdk7.67)
    这里写图片描述
  3. 解压 JDK 配置环境变量

    1. 解压:tar -zxf jdk-7u67-linux-x64.tar.gz -C /opt/modules/
      这里写图片描述
    2. 写入 Java 环境变量:sudo vi /etc/profile

      
      ##JAVA_HOME
      
      export JAVA_HOME=/opt/modules/jdk1.7.0_67
      export PATH=$PATH:$JAVA_HOME/bin
    3. 让文件生效:source /etc/profile

    4. 验证: java -version
      这里写图片描述
  4. 解压安装 Hadoop-2.5.0

    1. 解压:tar -zxf hadoop-2.5.0.tar.gz -C /opt/modules/
      这里写图片描述
      有时需要赋权限:sudo chown -R beifeng:beifeng /opt/modules/hadoop-2.5.0
    2. 如果磁盘空间较为紧张可以删除 share/doc 目录,存放的都是官方英文说明文档:rm -rf ./doc/
  5. 设置 Java 的安装目录
    通过Notepad++设置配置文件: etc/hadoop/*-env.sh(三个文件都要设置)(hadoop-env.sh,mapred-env.sh,yarn-env.sh)
    export JAVA_HOME=/opt/modules/jdk1.7.0_67
    这里写图片描述

  6. 配置*-site.xml 自定义配置文件(core-site.xml)
    1. 指定 namenode 主节点所在的位置以及交互端口号
      <property>
      <name>fs.defaultFS</name>
      <value>hdfs://hadoop-senior01.ibeifeng.com:8020</value>
      </property>
    2. 更改 hadoop.tmp.dir 的默认临时目录路径,先创建一个存储数据的临时目录
      这里写图片描述
      <property>
      <name>hadoop.tmp.dir</name>
      <value>/opt/modules/hadoop-2.5.0/data/tmp</value>
      </property>

      这里写图片描述
    3. 指定 datanode 从节点所在的位置,slaves 文件配置
      hadoop-senior01.ibeifeng.com
      这里写图片描述
      注意 slaves 既代表 DataNode 又代表 NodeManager
    4. 指定副本个数

      <property>
      <name>dfs.replication</name>
      <value>1</value>
      </property>

      这里写图片描述
  7. 对于 NameNode 进行格式化操作

    $ bin/hdfs namenode -format

      建议:只需要一次格式化,多次格式化会出错
      如果出错需要删除 data/tmp 下的 dfs 目录
  8. 启动相关的服务进程

    $ sbin/hadoop-daemon.sh start namenode
    $ sbin/hadoop-daemon.sh start datanode
  9. 通过 web 浏览器加上 50070 端口号访问管理界面
    50070端口http://hadoop-senior01.ibeifeng.com:50070
    这里写图片描述
  10. 对于 HDFS 文件系统进行读写上传下载测试
    在HDFS中创建目录:

    $ bin/hdfs dfs -mkdir -p tmp/conf --相对路径,用户主目录下

    上传本地文件文件到HDFS

    $ bin/hdfs dfs -put etc/hadoop/core-site.xml
    /user/beifeng/tmp/conf

    打开HDFS中文件

    $ bin/hdfs dfs -cat /user/beifeng/tmp/conf/core-site.xml

    下载HDFS文件到本地

    $ bin/hdfs dfs -get /user/beifeng/tmp/conf/core-site.xml /home/beifeng/bf-site.xml
  11. 指定SecondaryNameNode所在机器位置以及WEB浏览器交互端口号

    1. 配置文件:/opt/modules/hadoop-2.5.0/etc/hadoop/hdfs-site.xml

      <property>
            <name>dfs.namenode.secondary.http-address</name>
            <value>hadoop-senior01.ibeifeng.com:50090</value>
      </property>
    2. 启动: sbin/hadoop-daemon.sh start secondarynamenode

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值