Hadoop HDFS 体系结构

简介

HDFS(Hadoop Distributed File System) Hadoop分布式文件系统,Hadoop体系底层的数据存储组件;最开始是作为Apache Nutch web搜索引擎项目的基础架构而开发,HDFS是Apache Hadoop Core项目的一部分,HDFS具有高容错,高吞吐,易扩展,高可靠等特征。
设计思想:
分而治之,将大文件、大批量文件,分布式存放在大量服务器上,以便于采取分而治之的方式对海量数据进行运算分析;
项目URL: http://hadoop.apache.org/。

体系结构

HDFS是一个标准的主从(Master/Slave)体系结构的分布式系统;HDFS集群包含一个或多个NameNode(NameNode HA会有多个NameNode) 和 多个DataNode(根据节点情况规划),用户可以通过HDFS客户端同NameNode 和 DataNode进行交互以访问文件系统。
HDFS公开文件系统名称空间,并允许将用户数据存储在文件中。在内部,一个文件被分成一个或多个块,这些块存储在一组datanode中。NameNode执行文件系统名称空间操作,如打开、关闭和重命名文件和目录。它还确定块到datanode的映射。datanode负责处理来自文件系统客户机的读和写请求。datanode还根据来自NameNode的指令执行块创建、删除和复制(体系结构如下图所示)。

相关概念

1.NameNode
注:Secondary NameNode hadoop1.x的版本 了解就好
负责客户端请求的响应
元数据的管理(查询,修改)
namenode是HDFS集群主节点,负责维护整个hdfs文件系统的目录树,以及每一个路径(文件)所对应的block块信息(block的id,及所在的datanode服务器)

2.JournalNode
NameNode之间共享数据(主要体现在 NameNode配置 HA)

3.DataNode
存储管理用户的文件块数据
定期向namenode汇报自身所持有的block信息(通过心跳信息上报)

4.Data Blocks
HDFS中的文件在物理上是分块存储(block),块的大小可以通过配置参数( dfs.blocksize)来规定,默认大小在hadoop2.x版本中是128M,老版本中是64M

5.Data Replication
每一个block都可以在多个datanode上存储多个副本(副本数量也可以通过参数设置dfs.replication,默认是3)

6.HDFS通信协议
HDFS作为分布式文件系统,涉及到数据节点,名称节点和客户端三者之间的配合,相互调用才能实现。为了降低节点间代码的耦合性,提高单个节点的内聚性,HDFS将这些节点间的调用抽象成不同的接口。
Hadoop RPC接口:HDFS中基于Hadoop RPC框架实现的接口。
流式接口:HDFS中基于TCP或 HTTP实现的接口。

读写流程

1.读数据流程
客户端将要读取的文件路径发送给namenode,namenode获取文件的元信息(主要是block的存放位置信息)返回给客户端,客户端根据返回的信息找到相应datanode逐个获取文件的block并在客户端本地进行数据追加合并从而获得整个文件

2.写数据流程
客户端要向HDFS写数据,首先要跟namenode通信以确认可以写文件并获得接收文件block的datanode,然后,客户端按顺序将文件逐个block传递给相应datanode,并由接收到block的datanode负责向其他datanode复制block的副本

客户端命令

注:常见客户端命令

-help             
功能:输出这个命令参数手册

-ls                  
功能:显示目录信息
示例: hdfs dfs -ls hdfs://hadoop-server01:9000/
备注:这些参数中,所有的hdfs路径都可以简写
-->hdfs dfs -ls /   等同于上一条命令的效果

-mkdir              
功能:在hdfs上创建目录
示例:hdfs dfs  -mkdir  -p  /aaa/bbb/cc/dd

-moveFromLocal            
功能:从本地剪切粘贴到hdfs
示例:hdfs dfs  - moveFromLocal  /home/hadoop/a.txt  /aaa/bbb/cc/dd

-moveToLocal              
功能:从hdfs剪切粘贴到本地
示例:hdfs dfs  - moveToLocal   /aaa/bbb/cc/dd  /home/hadoop/a.txt 

--appendToFile  
功能:追加一个文件到已经存在的文件末尾
示例:hdfs dfs  -appendToFile  ./hello.txt  hdfs://hadoop-server01:9000/hello.txt
可以简写为:
hdfs dfs  -appendToFile  ./hello.txt  /hello.txt

-cat  
功能:显示文件内容  
示例:hdfs dfs -cat  /hello.txt

-tail                 
功能:显示一个文件的末尾
示例:hdfs dfs  -tail  /weblog/access_log.1

-text                  
功能:以字符形式打印一个文件的内容
示例:hdfs dfs  -text  /weblog/access_log.1

-chgrp 
-chmod
-chown
功能:linux文件系统中的用法一样,对文件所属权限
示例:
hdfs dfs  -chmod  666  /hello.txt
hdfs dfs  -chown  someuser:somegrp   /hello.txt

-copyFromLocal    
功能:从本地文件系统中拷贝文件到hdfs路径去
示例:hdfs dfs  -copyFromLocal  ./jdk.tar.gz  /aaa/

-copyToLocal      
功能:从hdfs拷贝到本地
示例:hdfs dfs -copyToLocal /aaa/jdk.tar.gz

-cp              
功能:从hdfs的一个路径拷贝hdfs的另一个路径
示例: hdfs dfs  -cp  /aaa/jdk.tar.gz  /bbb/jdk.tar.gz.2

-mv                     
功能:在hdfs目录中移动文件
示例: hdfs dfs  -mv  /aaa/jdk.tar.gz  /
-get              
功能:等同于copyToLocal,就是从hdfs下载文件到本地
示例:hdfs dfs -get  /aaa/jdk.tar.gz
-         
功能:合并下载多个文件
示例:比getmerge    如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...
hdfs dfs -getmerge /aaa/log.* ./log.sum
-put                
功能:等同于copyFromLocal
示例:hdfs dfs  -put  /aaa/jdk.tar.gz  /bbb/jdk.tar.gz.2

-rm                
功能:删除文件或文件夹
示例:hdfs dfs -rm -r /aaa/bbb/

-rmdir                 
功能:删除空目录
示例:hdfs dfs  -rmdir   /aaa/bbb/ccc
-df               
功能:统计文件系统的可用空间信息
示例:hdfs dfs  -df  -h  /

-du 
功能:统计文件夹的大小信息
示例:hdfs dfs  -du  -s  -h /aaa/*

-count         
功能:统计一个指定目录下的文件节点数量
示例:hdfs dfs -count /aaa/

-setrep                
功能:设置hdfs中文件的副本数量
示例:hdfs dfs -setrep 3 /aaa/jdk.tar.gz
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值