hadoop hdfs 存储一个大文件,会切分成数据块128M一个.
是逻辑切块
比如文件278.16 MB 上传到hdfs中他就会被切块,Hadoop 2.x 默认128M为一个文件块
这是切分成了3个文件块block0 , block1, block2
block0的信息
block id, block pool id,
size大小:134217728 单位为byte = 128M
而且有三个副本在 存在三个节点上 节点:wxt01 wxt02 wxt03
block1信息
也是128M
block2信息
大小: 23239479 byte 约等于 22.16M
NameNode 存储元数据,元数据保存在内存中
DataNode 存储文件内容,文件内容保存在磁盘
所有的元数据信息都保存在了FsImage与Eidts文件当中,这两个文件就记录了所有的数据的元数据信息
客户端对Eidts进行写文件时会首先被记录在edits文件中。
edits修改时元数据也会更新。
fsimage:是namenode中关于元数据的完整镜像文件.内容包含了namenode管理下的所有datanode中文件及文件block及block所在的datanode的元数据信息。随着edits内容增大,就需要在一定时间点和fsimage合并。
SecondryNameNode的职责是合并NameNode的edit logs 到fsimage文件中。
Secondarynamenode对元数据进行checkpoint流程