数据重删
傲节
这个作者很懒,什么都没留下…
展开
-
数据重删技术概述
1.源端去重 && 宿端去重源端去重(Source Deduplication)首先在客户端计算待传输数据的指纹并通过与服务端进行指纹比对发现和消除重复内容,然后仅向服务端发送非重复数据内容 , 从而达到同时节约网络带宽和存储资源的目标。 宿端去重( Destination Deduplication)直接将客户端的数据传输到服务端,并在服务端内部检测和消除重复内容。两种部署方式都能够提高存储空间转载 2016-09-07 19:36:36 · 1558 阅读 · 0 评论 -
C-miner 代码记录
项目地址https://github.com/fdl66/x-miner流程执行关联规则的挖掘过程 1. // 对初始访问序列分段 cutAccessSequence(); 2. // 挖掘:频繁子序列 candidateFreSubsequences(); 3. // 过滤:Closed频繁子序列 closedFreSubsequences(); 4原创 2017-05-10 20:02:33 · 502 阅读 · 0 评论 -
存储系统的块关联挖掘C-Miner算法
块关联什么是块关联发掘块关联通过预取提高性能利用关联存储数据,提高读写性能制定更好的缓存替换机制获取块关联的性质黑盒灰盒白盒块关联的挖掘频繁序列的挖掘数据挖掘技术包括了关联分析、分类、预测、聚簇分析、外部分析以及演变分析。假设在事件x和y之间存在着一个强关联,那么意味着如果事件x发生,则事件y也很有可能会发生。我们使用一个关联规则x->y来描述x,y之间的这种关联。 频繁序列挖掘是原创 2017-05-08 15:54:32 · 768 阅读 · 0 评论 -
实验记录
2017.06.06 10:59编译dmdedup完成2017.06.06 11:06:31 dmdedup 初始化完成,日志打印停止2017.06.06 11:50 开始拷贝linuxkernel2原创 2017-06-06 11:58:09 · 425 阅读 · 0 评论