Hadoop之HDFS


一、 HDFS 产出背景及定义


1.HDFS 产生背景
随着数据量越来越大,在一个操作系统存不下所有的数据,那么就分配到更多的操作系
统管理的磁盘中,但是不方便管理和维护,迫切需要一种系统来管理多台机器上的文件,这
就是分布式文件管理系统。HDFS 只是分布式文件管理系统中的一种。

2.HDFS 定义
HDFS(Hadoop Distributed File System),它是一个文件系统,用于存储文件,通过目
录树来定位文件;其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务
器有各自的角色。
HDFS 的使用场景:适合一次写入,多次读出的场景。一个文件经过创建、写入和关闭
之后就不需要改变。

二、HDFS 优缺点


1.优点
1)高容错性
数据自动保存多个副本。它通过增加副本的形式,提高容错性。
某一个副本丢失以后,它可以自动恢复。
2)适合处理大数据
数据规模:能够处理数据规模达到GB、TB、甚至PB级别的数据; 
文件规模:能够处理百万规模以上的文件数量,数量相当之大。
3)可构建在廉价机器上,通过多副本机制,提高可靠性。

2.缺点
1)不适合低延时数据访问,比如毫秒级的存储数据,是做不到的。
2)无法高效的对大量小文件进行存储。 
存储大量小文件的话,它会占用NameNode大量的内存来存储文件目录和
块信息。这样是不可取的,因为NameNode的内存总是有限的;
小文件存储的寻址时间会超过读取时间,它违反了HDFS的设计目标。
3)不支持并发写入、文件随机修改。 
一个文件只能有一个写,不允许多个线程同时写;
仅支持数据append(追加),不支持文件的随机修改。

三、 HDFS 组成架构


1.NameNode(nn):就是Master,它是一个主管、管理者。 
1)管理HDFS的名称空间;
2)配置副本策略; 
3)管理数据块(Block)映射信息; 
4)处理客户端读写请求。

2.DataNode:就是Slave(worker)。NameNode
下达命令,DataNode执行实际的操作。 
1)存储实际的数据块;
2)执行数据块的读/写操作。

3.Client:就是客户端。 
1)文件切分。文件上传HDFS的时候,Client将文件切分成一个一个的Block,然后进行上传; 
2)与NameNode交互,获取文件的位置信息;
3)与DataNode交互,读取或者写入数据;
4)Client提供一些命令来管理HDFS,比如NameNode格式化; 
5)Client可以通过一些命令来访问HDFS,比如对HDFS增删查改操作;

4.Secondary NameNode:
并非NameNode的热备。当NameNode挂掉的时候,它并不
能马上替换NameNode并提供服务。
1)辅助NameNode,分担其工作量,比如定期合并Fsimage和Edits,并推送给NameNode ; 
2)在紧急情况下,可辅助恢复NameNode。

 四、HDFS 文件块大小

HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数
( dfs.blocksize)来规定,默认大小在Hadoop2.x/3.x版本中是128M,1.x版本中是64M。

(1)HDFS的块设置太小,会增加寻址时间,程序一直在找块的开始位置;
(2)如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开
始位置所需的时间。导致程序在处理这块数据时,会非常慢。
总结:HDFS块的大小设置主要取决于磁盘传输速率。

五、HDFS 的 Shell 操作


1.基本语法
hadoop fs 具体命令 OR hdfs dfs 具体命令
两个是完全相同的。
2.常用命令
1)-moveFromLocal:从本地剪切粘贴到 HDFS
[ltx@hadoop001 hadoop]$ hadoop fs -moveFromLocal ./hello.txt /test

2)-copyFromLocal:从本地文件系统中拷贝文件到 HDFS 路径去
[ltx@hadoop001 hadoop]$ hadoop fs -copyFromLocal ./hi.txt /test

3)-put:等同于 copyFromLocal,生产环境更习惯用 put
[ltx@hadoop001 hadoop]$ hadoop fs -put ./hi.txt /test

4)-copyToLocal:从 HDFS 拷贝到本地
[ltx@hadoop001 hadoop]$ hadoop fs -copyToLocal /test/hello.txt ./

5)-get:等同于 copyToLocal,生产环境更习惯用 get
[ltx@hadoop001 hadoop]$ hadoop fs -get /test/hello.txt ./

6)-ls: 显示目录信息
[ltx@hadoop001 hadoop]$ hadoop fs -ls /test

7)-cat:显示文件内容
[ltx@hadoop001 hadoop]$ hadoop fs -cat /test/hi.txt

8)-chgrp、-chmod、-chown:Linux 文件系统中的用法一样,修改文件所属权限
[ltx@hadoop001 hadoop]$ hadoop fs -chmod 666 test/hi.txt
[ltx@hadoop001 hadoop]$ hadoop fs -chown ltx:ltx test/hi.txt

9)-mkdir:创建路径
[ltx@hadoop001 hadoop]$ hadoop fs -mkdir /test1

10)-cp:从 HDFS 的一个路径拷贝到 HDFS 的另一个路径
[ltx@hadoop001 hadoop]$ hadoop fs -cp /test/hello.txt /test1

11)-mv:在 HDFS 目录中移动文件
[ltx@hadoop001 hadoop]$ hadoop fs -mv /test/hi.txt /test1

12)-tail :显示一个文件的末尾的数据
[ltx@hadoop001 hadoop]$ hadoop fs -tail /test/hello.txt

13)-rm:删除文件或文件夹
[ltx@hadoop001 hadoop]$ hadoop fs -rm /test/hello.txt

六、HDFS 的读写流程

 

七、 CheckPoint机制


1. NN 和 2NN 工作机制
元数据需要存放在内存中,但如果只存在内存中,一旦断电,元数据丢失,
整个集群就无法工作了。因此产生在磁盘中备份元数据的FsImage。
当在内存中的元数据更新时,如果同时更新 FsImage,就会导
致效率过低,但如果不更新,就会发生一致性问题,一旦 NameNode 节点断电,就会产生数
据丢失。因此,引入 Edits 文件(只进行追加操作,效率很高)。每当元数据有更新或者添
加元数据时,修改内存中的元数据并追加到 Edits 中。这样,一旦 NameNode 节点断电,可
以通过 FsImage 和 Edits 的合并,合成元数据。
但是,如果长时间添加数据到 Edits 中,会导致该文件数据过大,效率降低,而且一旦
断电,恢复元数据需要的时间过长。因此,需要定期进行 FsImage 和 Edits 的合并,如果这
个操作由NameNode节点完成,又会效率过低。因此,引入一个新的节点SecondaryNamenode,
专门用于 FsImage 和 Edits 的合并。

2.Fsimage 和 Edits 解析
NameNode被格式化之后,将在产生如下文件
fsimage_0000000000000000000
fsimage_0000000000000000000.md5
seen_txid
VERSION
1)Fsimage文件:HDFS文件系统元数据的一个永久性的检查点,其中包含HDFS文件系统的所有目
录和文件inode的序列化信息。 
2)Edits文件:存放HDFS文件系统的所有更新操作的路径,文件系统客户端执行的所有写操作首先
会被记录到Edits文件中。 
3)seen_txid文件保存的是一个数字,就是最后一个edits_的数字
4)每 次NameNode启动的时候都会将Fsimage文件读入内存,加 载Edits里面的更新操作,保证内存
中的元数据信息是最新的、同步的,可以看成NameNode启动的时候就将Fsimage和Edits文件进行了合并。

3 CheckPoint 时间设置
默认情况下,SecondaryNameNode 每隔一小时执行一次。改为一分钟执行一次
[hdfs-default.xml]
<property>
 <name>dfs.namenode.checkpoint.period</name>
 <value>60s</value>
</property>

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值