备份重复数据删除基础

重删基础

数据去重

数据去重是一种在存储系统中对数据进行无损压缩的方法

工作过程

在这里插入图片描述

如上图所示,

  1. 首先对文件进行分块(可使用FCS, CDC),分块(data chunks)之后求取数据块的指纹(fingerprint, 即数据块内容的哈希值)
  2. 根据数据块的哈希值构建指纹索引,并存储索引(index),索引、指纹等统称为元数据信息(metadata)
  3. 根据指纹索引找到指纹进行比较,若已经存在则不写入,只写入唯一块(unique chunks)
优点
  • 减少备份所需的存储空间
  • 最小化冗余数据的网络传输
FCS

FCS 即Fixed-Sized Chunking,固定大小的分块

固定大小的分块:根据字节偏移量进行分块,即按照固定的大小(例如:8KB)进行分块

存在问题边界偏移问题,即插入新的数据可能会导致重复数据无法被检测到,如下图所示插入数据FF后,无法检测到重复的数据块

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值