hadoop伪分布式集群安装

一、下载hadoop安装包

hadoop安装包分为apache官方以及CDH,具体区别在此不做介绍,本次搭建选择的是hadoop-2.6.0-cdh5.7.0版本
下载路径http://archive.cloudera.com/cdh5/


二、配置hadoop

hadoop相关配置文件在/etc目录下
我们需要修改的文件有
core-site.xmlhadoop-env.shhdfs-site.xml

  1. hadoop-env.sh文件中的JAVA_HOME进行一下配置

  2. hdfs-site.xml文件中添加配置

    <configuration>
        <property>
        <!-- 存储副本的数量,因为我们是伪分布式,所以副本数量为1 -->
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <!-- namenode相关信息存储路径 -->
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/XXX/Hadoop/dfs/name</value>
        </property>
        <!-- datanode相关信息存储路径 -->
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>file:/XXX/Hadoop/dfs/data</value>
        </property>
    </configuration>
    

    配置好之后我们需要创建/XXX/Hadoop/dfs/name/XXX/Hadoop/dfs/data这两个文件

  3. 配置core-site.xml

    <configuration>
        <!-- 表明我们hdfs的默认ip -->
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>
        </property>
        <!-- 表明我们tmp文件的路径 -->
        <property>
            <name>hadoop.tmp.dir</name>
            <value>/XXX/Hadoop/tmp</value>
        </property>
    </configuration>
    

    之后我们需要进到/bin目录下面执行./hdfs namenode -format对namenode进行格式化
    如果看到下面这段话则说明格式化成功

    19/12/07 15:04:31 INFO util.ExitUtil: Exiting with status 0
    

三、启动

  1. /sbin目录下面使用./start-dfs.sh启动hdfs集群
  2. 使用./hdfs dfs -ls /查看hdfs根目录为空
  3. 然后我们在执行./hdfs dfs -mkdir /test之后再查询会发现根目录已经存在/test文件
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值