备份
文章平均质量分 82
匆匆那年s
这个作者很懒,什么都没留下…
展开
-
A Lookahead Read Cache论文总结
论文A Lookahead Read Cache: Improving Read Performance for Deduplication Backup Storage主要内容为备份系统设计了新的去重存储读缓存,它利用一个特殊的特性:读序列与写序列相同。加速备份系统读取性能移动窗口:为了更好地利用缓存,通过在移动窗口中查看未来的引用,它将受害者从将来访问次数最少的缓存中驱逐出去。日志缓冲区:此外,为了进一步提高读缓存性能,它维护了一个小的日志缓冲区,以明智地缓存未来的访问数据块。方法 (L原创 2021-04-14 15:58:31 · 209 阅读 · 0 评论 -
Destor安装
DestorDestor is a platform for data deduplication evaluation.安装Destor源码源码:https://github.com/fomy/destor环境Linux 64bit, ubuntu依赖libssl-dev is required to calculate sha-1 digest;GLib 2.32 or later versionlibglib.so and glib.h may not be found原创 2020-12-14 22:09:34 · 1433 阅读 · 0 评论 -
RapidCDC论文总结
Rapid CDC来自论文:RapidCDC: Leveraging Duplicate Locality to Accelerate Chunking in CDC-based Deduplication SystemsGithub:https://github.com/moking/RapidCDC简要介绍基本思想利用重复局部性加速CDC。重复局部性,即重复数据块可能在一块出现,即一个重复的块后面可能紧跟着一系列连续的重复块,序列越长,局部性越强主要技术RapidCDC利用局部性,消除在确原创 2020-12-19 19:48:22 · 296 阅读 · 2 评论 -
备份重复数据删除基础
重删基础数据去重数据去重是一种在存储系统中对数据进行无损压缩的方法工作过程如上图所示,首先对文件进行分块(可使用FCS, CDC),分块(data chunks)之后求取数据块的指纹(fingerprint, 即数据块内容的哈希值)根据数据块的哈希值构建指纹索引,并存储索引(index),索引、指纹等统称为元数据信息(metadata)根据指纹索引找到指纹进行比较,若已经存在则不写入,只写入唯一块(unique chunks)优点减少备份所需的存储空间最小化冗余数据的网络传输原创 2020-12-19 19:52:52 · 680 阅读 · 2 评论