HDFS如何保证数据的完整性

在读写过程中,由校验和检测数据的完整性

客户端写入datanode的时候,HDFS会对写入的数据计算校验和,默认每512个字节校验一次校验和,由dfs.bytes-per-checksum配置,在 hdfs-default.xml中配置

<property>

  <name>dfs.stream-buffer-size</name>

  <value>4096</value>

  <description>The size of buffer to stream files.

  The size of this buffer should probably be a multiple of hardware

  page size (4096 on Intel x86), and it determines how much data is

  buffered during read and write operations.</description>

</property>

<property>

  <name>dfs.bytes-per-checksum</name>

  <value>512</value>

  <description>The number of bytes per checksum.  Must not be larger than

  dfs.stream-buffer-size</description>

</property>

HDFS数据的完整性主要体现在HDFS读取数据完整性、写数据完整性、还有磁盘完整性

客户端写数据的时候,将数据和校验和发送到一系列由datanode组成的管线,管线中的最后一个datanode负责校验校验和,如果发现数据校验和对不上,则抛出异常,hdfs会以特定方式处理,例如重试这个操作。

读数据时也会验证校验和,把读出来的数据和读出来的校验和校验,确保读出的数据是正确的,每个datanode都保持着一个用于验证的校验和日志,日志中保存着每个数据块的验证时间,客户端每验证完一个数据块,就会更新日志。

如果在读取数据的过程中,如果检测到数据校验错误,首先会通知namenode这个已损坏数据块以及正在读取的datanode,再抛出ChecksumException异常。namenode将这个数据块副本标记为已损坏,不再将客户端请求发送到这datanode上,并且会把这个数据块的一个副本复制到另一个datanode上,这样数据块的副本因子又可以变成期望水平,默认为3,最后已损坏的数据块会被删除

此外datanode也会在后台线程中运行一个线程定期检查datanode上的所有数据块,避免磁盘损坏。

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: HDFS数据可靠性主要通过三种机制保证: 1. 冗余副本:HDFS数据存储为若干个副本,并分布存储在集群中的不同节点上,这样可以确保即使某个节点发生故障,也可以通过其他副本获取数据。 2. 数据校验:HDFS数据时会计算校验和,并在读取数据时再次校验,以确保数据完整性。 3. 故障检测:HDFS通过定期对节点进行心跳检测,及时发现故障节点并采取相应的措施,以保证集群的高可用性。 通过这三种机制,HDFS能够保证数据的高可靠性。 ### 回答2: HDFS数据一致性是通过以下几个方面来保证的: 1. 入模型:HDFS采用了一种称为入模型的架构,数据入只能通过追加的方式进行,即无法在已有的数据块中进行修改或删除操作。这样可以确保在过程中不会发生数据的覆盖或破坏,保证了数据的一致性。 2. 入确认:在向HDFS数据时,会有一个确认机制来确保数据的有效入。数据时,HDFS会将数据入本地文件系统的本地缓存中,并在完成入后向客户端发送确认消息,客户端收到确认消息后才认为数据已经入成功。这个确认机制确保了数据的一致性。 3. 数据复制:HDFS数据分为多个块,并在不同的节点上进行多次复制,一般情况下,每个数据块会被复制到至少三个节点上。这样即使某一个节点出现故障,数据仍然可以从其他副本节点中获取,保证了数据的可靠性和一致性。 4. 检验和:HDFS会对每个数据块进行校验和计算,并将校验和存储在名为校验和文件(checksum file)的文件中。在读取数据时,HDFS会验证数据块的校验和,并与校验和文件中的值进行比较,确保数据完整性和一致性。 通过上述方式的组合,HDFS可以保证数据的一致性。入模型确保数据入的顺序和一次性入,入确认机制确保数据的成功入,数据复制和校验和保证了数据的可靠性、完整性和一致性。 ### 回答3: HDFS数据一致性是通过以下两个主要机制来保证的: 1. 副本复制机制:HDFS数据划分为固定大小的数据块,并将每个数据块复制到多个节点上。每个数据块的默认副本数通常是3个,可以根据需要进行调整。在数据时,HDFS会将数据块的一个副本存储在本地磁盘上,并将其余的副本存储在其他节点上。这样,即使某个节点发生故障或数据损坏,仍然可以从其他节点上的副本恢复数据HDFS会定期监测副本状态,并在必要时进行副本的重复复制或删除。 2. 入和读取一致性模型:HDFS采用入和读取一致性模型来保证数据的一致性。在数据时,HDFS会将数据入到一个临时文件中,然后将临时文件移动到目标位置。这个过程是原子的,意味着要么数据完全入,要么不入任何数据。因此,在数据移动到目标位置之前,其他用户无法读取到这些数据。这种模型确保了数据的一致性,即所有用户都能看到完整数据。 通过副本复制机制和入和读取一致性模型的组合,HDFS能够提供高度可靠和一致的数据存储和访问。即使在节点故障或其他故障的情况下,HDFS也能保证数据的可靠性和一致性。这使得HDFS成为处理大规模数据的理想选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一杯咖啡半杯糖

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值