hadoop_hdfs 理论、数据读取、写入详解,存放机制 周期

9 篇文章 0 订阅

HDFS全称

Hadoop Distribute File System : Hadoop分布式文件系统

  • 主要作用:
    即存储海量数据
  • 为什么能存储海量数据??
    因为其空间大,空间大的原因为服务器多、磁盘多。且支持扩展
HDFS组成部分
	管理者-Master		NameNode  集群中有1-2个,用于管理集群中的工作者
	工作者-Slave			DataNode	集群中有	辅助管理者工作
	辅助管理            SecondaryNameNode   集群中有0-1  只负责辅助NameNode管理工作
HDFS适用场景

1、海量数据存储
2、高容错
3、商用廉价的硬件
4、存储大文件
5、一次写入多次读取

HDFS不适用场景

1、查询时效性要求低延迟的场景
2、大量小文件。
3、需要频繁修改数据的场景
4、多个用户同时操作一个文件

HDFS存储数据的方式
以数据块的方式存储数据。默认一个数据块128M,该数值可以修改。
注意:这里的128仅仅是切分数据的阈值。
一个大的数据被切分成多个小的128M的数据块,分别存储在集群多个节点的不同位置。
数据副本机制
数据副本默认是3份。
一个数据存储到HDFS后,数据自动复制两份,共三份(三分相同的数据-数据冗余)
数据副本存放机制
第一个副本在客户端所在的节点(客户端也是集群内的节点),若客户端在集群外,那么根据一定的计算规则选一个节点。
第二份副本,在与第一份相同机柜,且不在同一个服务器的节点上。
第三份与第一份第二份不在同一个机柜,且逻辑距离(网络拓扑)最近的机柜选择一个节点存储。
HDFS存储数据的方式
以数据块的方式存储数据。默认一个数据块128M,该数值可以修改。
注意:这里的128仅仅是切分数据的阈值。
一个大的数据被切分成多个小的128M的数据块,分别存储在集群多个节点的不同位置。
  • 数据副本机制:
   数据副本默认是3份。
   一个数据存储到HDFS后,数据自动复制两份,共三份(三分相同的数据-数据冗余)
  • 数据副本存放机制:
	第一个副本在客户端所在的节点(客户端也是集群内的节点),若客户端在集群外,那么根据一定的计算规则选一个节点。
	第二份副本,在与第一份相同机柜,且不在同一个服务器的节点上。
	第三份与第一份第二份不在同一个机柜,且逻辑距离(网络拓扑)最近的机柜选择一个节点存储。
什么是名字空间
名字空间:HDFS文件系统的目录树
NameNode的作用
1、维护目录树,维护命名空间。
2、负责确定指定的文件块到具体的Datanode结点的映射关系。(在客户端与Datanode之间共享数据)
3、管理Datanode结点的状态报告
DataNode的作用
1、负责管理它所在结点上存储的数据的读写,及存储数据。
2、向Namenode结点报告DataNode节点的状态。
3、通过流水线复制实现三份数据副本,
HDFS写入数据的流程

在这里插入图片描述
1、 client发起文件上传请求,通过RPC与NameNode建立通讯,NameNode检查目标文件是否已存在,父目录是否存在,返回是否可以上传;

2、 client请求第一个block该传输到哪些DataNode服务器上;

3、 NameNode根据配置文件中指定的备份数量及机架感知原理进行文件分配,返回可用的DataNode的地址如:A,B,C;

4、 client请求3台DataNode中的一台A上传数据(本质上是一个RPC调用,建立pipeline),A收到请求会继续调用B,然后B调用C,将整个pipeline建立完成,后逐级返回client;

5、 client开始往A上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位(默认64K),A收到一个packet就会传给B,B传给C;A每传一个packet会放入一个应答队列等待应答。

6、 数据被分割成一个个packet数据包在pipeline上依次传输,在pipeline反方向上,逐个发送ack(命令正确应答),最终由pipeline中第一个DataNode节点A将pipelineack发送给client;

7、关闭写入流。

8、 当一个block传输完成之后,client再次请求NameNode上传第二个block到服务器。

HDFS读取数据的流程

在这里插入图片描述
1、客户端通过调用FileSystem对象的open()来读取希望打开的文件。

2、 Client向NameNode发起RPC请求,来确定请求文件block所在的位置;

3、 NameNode会视情况返回文件的部分或者全部block列表,对于每个block,NameNode 都会返回含有该 block 副本的 DataNode 地址; 这些返回的 DN 地址,会按照集群拓扑结构得出 DataNode 与客户端的距离,然后进行排序,排序两个规则:网络拓扑结构中距离 Client 近的排靠前;心跳机制中超时汇报的 DN 状态为 STALE,这样的排靠后;

4、 Client 选取排序靠前的 DataNode 来读取 block,如果客户端本身就是DataNode,那么将从本地直接获取数据(短路读取特性);

5、 底层上本质是建立 Socket Stream(FSDataInputStream),重复的调用父类DataInputStream 的 read 方法,直到这个块上的数据读取完毕;

6、并行读取,若失败重新读取

7、 当读完列表的 block 后,若文件读取还没有结束,客户端会继续向NameNode 获取下一批的 block 列表;

8、返回后续block列表

9、 最终关闭读流,并将读取来所有的 block 会合并成一个完整的最终文件。

数据校验

在这里插入图片描述

1、数据第一次写入成功后,会进行数据校验,获得校验和。

2、数据读取前,对数据进行校验,获得校验和,计算得到的校验和与第一次上传后的校验和进行对比。

3、两个校验和相同表示数据相同,可以提读取数据

4、两个校验和不相同表示数据不相同,节点去其他节点读取

5、数据节点周期进行校验和计算,防止数据丢失。

DataNode节点丢失周期

DataNode节点长时间没有给NameNode汇报心跳,NameNode认为其丢失。
长时间(10分钟+30秒): 2 * 超时时间 + 10 * 心跳周期

HDFS适用场景

1、海量数据存储
2、高容错
3、商用廉价的硬件
4、存储大文件
5、一次写入多次读取

HDFS不适用场景

1、查询时效性要求低延迟的场景
2、大量小文件。
3、需要频繁修改数据的场景
多个用户同时操作一个文件

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值