HDFS的安装及应用

1.解压文件:   tar -zxvf hadoop-2.7.5.tar.gz

2.修改 core-site.xml
    进入路径 /root/data/hadoop-2.7.5/etc/hadoop
    表示hdfs基本路径,默认端口9000

<configuration>
           <property>
                <name>fs.defaultFS</name>
                <value>hdfs://master:9000</value>  #这里表示hdfs的主机地址
           </property>
        </configuration>
        2 修改 hdfs-site.xml
    dfs.replication:数据库备份数量,不能大于DataNode数量
    dfs.datanode.data.dir:datanode存储数据地方
    dfs.namenode.data.dir:namenode存储数据地方
         <configuration>
           <property>
               <name>dfs.replication</name>
               <value>1</value> #备份节点数
           </property>
           <property>
                <name>dfs.datanode.data.dir</name>
                <value>/root/data/hdfs/name</value>   # 主机进程的存放路径
           </property>
           <property>
                <name>dfs.namenode.data.dir</name>
                <value>/root/data/hdfs/data</value>   #节点进程存放路径
           </property>
        </configuration>

3 创建对应的存储目录
    创建datanode和namenode 对应的文件夹目录
      mkdir /root/data/hdfs/name
      mkdir /root/data/hdfs/data

4 修改 hadoop-env.sh   配置JDK目录
    export JAVA_HOME=/usr/local/jdk1.8.0_161

5 创建 slaves
    hdfs是一个分布式存储的,需要让master知道对应的slave
    在 /root/hdfsV2.0/hadoop-2.7.5/etc/hadoop 路径下新建slaves文件
    添加 node-1
         node-2

6 配置环境变量
    vi /etc/profile

export HADOOP_HOME=/hadoop/hadoop-2.10.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

更新节点
    source /etc/profile


    7.master节点配置好的hadoop分发到slave节点
    scp -r /root/data root@node-2:/root/
    
    
    8.运行hafs
    先对格式化: hdfs  namenode  -formats
    启动start-dfs.sh
    启动stop-dfs.sh
     
    输入HDFS默认监控地址:http://master:50070

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值