简介hdfs中文件切块

hadoop hdfs 存储一个大文件,会切分成数据块128M一个.
是逻辑切块
比如文件278.16 MB 上传到hdfs中他就会被切块,Hadoop 2.x 默认128M为一个文件块

在这里插入图片描述

这是切分成了3个文件块block0 , block1, block2

在这里插入图片描述

block0的信息

block id, block pool id,

size大小:134217728 单位为byte = 128M

而且有三个副本在 存在三个节点上 节点:wxt01 wxt02 wxt03

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-DzHusRcY-1617274146779)(C:\Users\wxt\AppData\Roaming\Typora\typora-user-images\1617271267953.png)]

block1信息

也是128M

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-81hYYdlz-1617274146783)(C:\Users\wxt\AppData\Roaming\Typora\typora-user-images\1617271498201.png)]

block2信息

大小: 23239479 byte 约等于 22.16M

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Zzw4rWSx-1617274146786)(C:\Users\wxt\AppData\Roaming\Typora\typora-user-images\1617271581277.png)]

NameNode 存储元数据,元数据保存在内存中

DataNode 存储文件内容,文件内容保存在磁盘

所有的元数据信息都保存在了FsImageEidts文件当中,这两个文件就记录了所有的数据的元数据信息

客户端对Eidts进行写文件时会首先被记录在edits文件中。
edits修改时元数据也会更新。

fsimage:是namenode中关于元数据的完整镜像文件.内容包含了namenode管理下的所有datanode中文件及文件block及block所在的datanode的元数据信息。随着edits内容增大,就需要在一定时间点和fsimage合并。

SecondryNameNode的职责是合并NameNode的edit logs 到fsimage文件中。

Secondarynamenode对元数据进行checkpoint流程

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值