HDFS数据块损坏是如何处理的?

HDFS数据块损坏是如何处理的?

数据块损坏恢复流程

在namenode中对于进行数据块副本的管理都是在FSnameSystem中,其中有一个成员变量 corruptReplicats
,其中就存储着损坏数据与DataNode的映射,当某个数据块损坏后(DataNode可以通过数据块扫描器获知,通过心跳发送给namenode),namenode会将损坏的数据块加到corrupReplicats中,当损坏的数据块在DataNode上删除后会在corrutpReplicatS中也删除。
当部分副本出现损坏时,namenode进行数据块复制时,有一个数据结构叫做underReplicatedBlocks对象,其中就有list保存需要进行数据块复制的数据块,对于数据块复制是有优先级的,underReplicatedBlocks的getPriority()会返回数据块的优先级,等待复制的对象从underReplicatsBlocks中读取出来之后会生成复制请求,并将请求放入FSnameSystem.pendingReplications中。pendlingReplication是一个数据块到数据块复制信息pendingBlockInfo的映射,pendlingReplication保存了数据块复制的时间和复制副本数,如果复制没成功会被重新插入到underReplicatedBlocks对象中,重新产生复制请求。

数据块损坏自动恢复相关参数

hdfs当然会自动修复损坏的数据块,当数据块损坏后,DN节点执⾏directoryscan之前,都不会发现损坏,也就是directoryscan操作校验是默认间隔6h
dfs.datanode.directoryscan.interval : 21600

在DN向NN进⾏blockreport前,都不会恢复数据块;也就是blockreport操作是间隔6h
dfs.blockreport.intervalMsec : 21600000

数据块损坏手动恢复方式:

hdfs fsck / #先检查哪些数据块丢失了
hdfs debug recoverLease -path 文件位置 -retries 重试次数 # 修复指定路径的hdfs文件,可以尝试多次

 

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: HDFS数据可靠性主要通过三种机制保证: 1. 冗余副本:HDFS数据存储为若干个副本,并分布存储在集群中的不同节点上,这样可以确保即使某个节点发生故障,也可以通过其他副本获取数据。 2. 数据校验:HDFS在写入数据时会计算校验和,并在读取数据时再次校验,以确保数据的完整性。 3. 故障检测:HDFS通过定期对节点进行心跳检测,及时发现故障节点并采取相应的措施,以保证集群的高可用性。 通过这三种机制,HDFS能够保证数据的高可靠性。 ### 回答2: HDFS数据一致性是通过以下几个方面来保证的: 1. 写入模型:HDFS采用了一种称为写入模型的架构,数据的写入只能通过追加写的方式进行,即无法在已有的数据中进行修改或删除操作。这样可以确保在写入过程中不会发生数据的覆盖或破坏,保证了数据的一致性。 2. 写入确认:在向HDFS写入数据时,会有一个确认机制来确保数据的有效写入。写入数据时,HDFS会将数据写入本地文件系统的本地缓存中,并在完成写入后向客户端发送确认消息,客户端收到确认消息后才认为数据已经写入成功。这个确认机制确保了数据的一致性。 3. 数据复制:HDFS数据分为多个,并在不同的节点上进行多次复制,一般情况下,每个数据会被复制到至少三个节点上。这样即使某一个节点出现故障,数据仍然可以从其他副本节点中获取,保证了数据的可靠性和一致性。 4. 检验和:HDFS会对每个数据进行校验和计算,并将校验和存储在名为校验和文件(checksum file)的文件中。在读取数据时,HDFS会验证数据的校验和,并与校验和文件中的值进行比较,确保数据的完整性和一致性。 通过上述方式的组合,HDFS可以保证数据的一致性。写入模型确保数据写入的顺序和一次性写入,写入确认机制确保数据的成功写入,数据复制和校验和保证了数据的可靠性、完整性和一致性。 ### 回答3: HDFS数据一致性是通过以下两个主要机制来保证的: 1. 副本复制机制:HDFS数据划分为固定大小的数据,并将每个数据复制到多个节点上。每个数据的默认副本数通常是3个,可以根据需要进行调整。在写入数据时,HDFS会将数据的一个副本存储在本地磁盘上,并将其余的副本存储在其他节点上。这样,即使某个节点发生故障或数据损坏,仍然可以从其他节点上的副本恢复数据HDFS会定期监测副本状态,并在必要时进行副本的重复复制或删除。 2. 写入和读取一致性模型:HDFS采用写入和读取一致性模型来保证数据的一致性。在写入数据时,HDFS会将数据写入到一个临时文件中,然后将临时文件移动到目标位置。这个过程是原子的,意味着要么数据完全写入,要么不写入任何数据。因此,在数据移动到目标位置之前,其他用户无法读取到这些数据。这种模型确保了数据的一致性,即所有用户都能看到完整的数据。 通过副本复制机制和写入和读取一致性模型的组合,HDFS能够提供高度可靠和一致的数据存储和访问。即使在节点故障或其他故障的情况下,HDFS也能保证数据的可靠性和一致性。这使得HDFS成为处理大规模数据的理想选择。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值