DataNode工作机制
DataNode工作机制:
1.一个数据块再DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是原数据包括数据块的长度,块数据的校验和,以及时间戳;
2.DataNode启动后向NameNode注册,通过后,周期性(6hr)的向NameNode上报所有的块信息。
3.心跳是每3秒一次,心跳返回结果带有NameNode给该DataNode的命令,如复制块数据到另一台机器/或删除某个数据块。 如果超过10分钟没有收到某个DataNode的心跳,
4.集群运行中可以安全加入和推出一些机器。
tips: DataNode先自查再汇报:
DN扫描自己节点块信息列表的时间,默认6小时;
DN向NN汇报当前解读信息的时间间隔,默认6小时;
数据完整性
问:如果电脑磁盘里面存储的数据是控制高铁信号灯的红灯信号(1)和绿灯信号(0),但是存储该数据的磁盘坏了,一直显示是绿灯,就会造成危险。
同理若DataNode节点上的数据损坏了,却一直没有发现,那该如何解决 呢?
DataNode节点保证数据完整性的方法:
1.当DataNode读取block的时候,它会计算校验和CheckSum;
2.如何计算后的CheckSum与block创建时的值不一样,说明block已经损坏;
3.Client读取其他DataNode上的Block;
4.常见的校验算法crc(32), md5(128), sga1(160);
5.DataNode在其文件创建后周期验证CheckSum。
DataNode掉线时限参数设置
TimeOut = 2 * 5 + 10 * 3;
tips: hdfs-site.xml 配置文件中的heartbeat.recheck.interval的单位为毫秒
,dfs.heartbeat.interval 的单位为秒
;