HDFS简介

Hadoop-HDFS

存储模型

  • 文件线性切割成块(Block)

  • 偏移量 offset (考虑byte,中文的情况),偏移量起到定位的作用

  • 单一文件block大小一致(最后一个可以不一样),文件与文件可以不一致

  • block可以设置副本数(不同的副本散落在不同的server上,为了数据安全),副本无序分散在不同节点中,但是副本数不要超过节点数量,一般为3

  • 文件上传可以设置Block大小和副本数(资源不够开辟的进程),hadoop中block默认值为128M,最小1M,副本数量可以自定义,如果这个block有很多进程运行,该block副本数应该多设置

  • 已上传的文件Block副本数可以调整,大小不变

  • 只支持一次写入多次读取,一旦写入,不能改变block大小,大小变了,其他和其相关联的block索引也会发生变化,同一时刻只有一个写入者

  • 可以append追加数据,新的数据会添加在block的末尾分块内

架构模型Framework

  • 文件元数据MetaData,文件数据:元数据,数据本身

  • (主)NameNode(只有一个)节点保存文件元数据:单节点 posix metadata size offset 每批文件的映射(存储的位置)维护存放在集群中的block文件的元数据信息block数量,大小,偏移量

  • (从)DataNode节点保存文件block数据:多节点,维护管理自己的节点之上的块文件

  • DataNode与NameNode之间保持心跳,DataNode要主动向NameNode上传block列表(原因:理论上来说DataNode会最先获知节点失效的信息)

  • HdfsClient与DataNode交互元数据信息(cs)有利于数据的存与取,NameNode根据client的需求或者文件的大小,将数据切割存储到不同的DataNode上。只告诉具体地址,不带着去存或取,不然NameNode负载过大

  • DataNode利用服务器本地文件系统存储数据块

HDFS架构图

 

颜色一样的表示为副本

HDFS client 与NameNode交互之后,会与DataNode进行交互

 

存储50GB的数据

先将文件进行切割,并生成每个副本存放的节点列表,有NameNode进行维护

NameNode

  • 基于内存存储:不会和磁盘发生交换(双向)(关系型数据库会发生双向交换)

  • 只存在内存中(存储速度快)

  • 持久化(单向)原因:内存存储,掉电即失,把内存中的数据存储到磁盘中,永远从内存向磁盘写东西,恢复数据时起到作用

NameNode主要功能

  • 接受客户端的读写请求

  • 收集DataNode汇报的block列表信息

NameNode保存的metadata信息组成

  • 文件ownership和premissions

  • 文件大小,时间

  • block列表:block偏移量,位置信息(持久化不存,指不会放到持久化的磁盘当中,可能node在启动时宕机,需要datanode主动上报)

  • block每副本的位置

NameNode持久化

  • NameNode的metadata信息在启动后会加载到内存

  • metadata存储到磁盘文件名为"fsimage"(磁盘镜像快照)(时点备份)做一个序列化与反序列化操作,避免版本不兼容,block的位置信息不会保存到fsimage,这种方法写的时候慢,但是恢复的时候特别快。fsimage一般是定时完成。

  • edits记录对metadata的操作日志,每来一条l指令,就将信息存储到日志log中,但是恢复起来会特别慢(比如存了十年的数据),这种方法写的时候快,但是恢复起来特别慢。

  • 在系统格式化后会产生第一个fsimage文件,hadoop启动时选去读取fsimage文件,并产生一个edits文件,二者合一产生一个新的fsimage,之后指令会写到edits中,edits会急速扩展,在达到一定程度之后会与fsimage合并。

SecondaryNameNode(SNN)Hadoop1.0解决数据持久化的方法,2.0版本之后弃用

  • 他不是NN的备份(但是可以做备份),他的主要工作是帮助NN合并editslog,减少NN启动时间。

  • SNN执行合并时机

    • 根据配置文件设置的时间间隔fs.checkpoint.period 默认3600秒

    • 根据配置文件设置edits log大小 fs.checkpoint.size 规定edits文件的最大值默认是64MB

DataNode

  • 本地磁盘目录存储数据(Block),文件形式

  • 同时存储Block的元数据信息文件,元数据与本地block产生关联(MD5文件),在下载之前,先将MD5上传到NameNode进行验证(MD5解码操作),避免磁盘坏道下载坏文件

  • 启动DN时会向NN汇报block信息(是一种主动行为)

  • 通过向NN发送心跳保持与其联系(3秒一次),如果NN 10分钟没有收到DN的心跳,则认为其已经lost,并copy其上的block到其它DN

HDFS优点

  • 高容错性

    • 数据自动保存多个副本

    • 副本丢失后,自动恢复(丢失之后,自动完成拷贝的功能)

  • 适合批处理

    • 移动计算而非数据,尽量规避节点之间数据的传输,尽量将计算程序放在本地跑

    • 数据位置暴露给计算框架(Block偏移量)

  • 适合大数据处理

  • 可构建在廉价机器上

    • 通过多副本提高可靠性

    • 提供了容错和恢复机制

HDFS缺点

  • 做不到低延迟数据访问

    • 作业时间一般都需要分钟级别,做不到毫秒级

    • 单节点存储数据量大小有要求,最小为1M

  • 小文件存取

    • 占用NameNode大量内存,维护大文件元数据信息

    • 寻道时间超过读取时间(文件放在不同位置)

  • 并发写入、文件随机修改

    • 一个文件只能有一个写者,写的时候不能修改块的大小

    • 仅支持append

Block的副本放置策略

  • 第一个副本:放置在上传文件的DN(放在本地,rackA);如果在集群外提交,则随机挑选一台磁盘不太满,CPU不太忙的节点

  • 第二个副本:放置于第一个副本不同的机架的节点上(RackB)

  • 第三个副本:与第二个副本相同机架的节点(RackB,其他的服务器)

  • 更多副本:随机节点

HDFS写流程

 

  • Client:

    • 切分文件Block

    • 按Block线性和NN获取DN列表(副本数)

    • 验证DN列表之后以更小的单位流式传输数据

      • 各节点,两两通信确定可用(pipeline)

    • Block传输结束之后

      • DN向NN汇报block信息

      • DN向Client汇报完成

      • Client向NN汇报完成

    • 获取下一个Block存放的DN列表

    • 最终Client汇报完成

    • NN会在写流程更新文件状态

HDFS读流程

 

  • Client

    • 和NN获取一部分Block副本位置列表

    • 线性和DN获取Block,最终合并为一个文件

    • 在Block副本列表中安距离择优选用

    • MD5验证数据完整性

 

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值