首先,这里的缓冲池指的是 Cache,而不是 Buffer,就是指将代价较大的对象先存储起来,以备以后需要的时候可以直接拿来用,能够节约一些时间或空间。
当缓冲池中的对象过多时,就需要删掉一些“不会再用”的对象来节约内存。但是没人能够知道某个对象什么时候会再用,因此这就涉及到缓存替换算法了,好的缓存替换算法可以有更大的概率删掉“不会再用”的对象,能够保留“很可能再用”的对象。
现在发明的缓存替换算法有很多,除了只有理论意义的 OPT(Optimal,最优替换,也就是上帝模式)和听天由命的随机替换,常用的有 LRU(Least recently used,最近最少使用),LFU(Least Frequently Used,最不经常使用)和 FIFO(First in first out,先进先出)以及很多改进算法。其中 LRU 算法经常被使用,我也打算使用 LRU 算法来实现一个缓冲池。
一、改进的 LRU 算法
LRU 算法认为最近被访问的对象,以后也很可能被访问。因此,在实现时,一般使用一个哈希表类存储被缓存的对象,和一个双向链表类存储对象被使用的情况:如果一个对象被访问了,就将它提升到链表的头部,如图1所示,这样就能保证最近被访问的对象总是更接近头部。当添加新对象时,直接添加到链表的头部;当需要淘汰旧对象时,就从链表的尾部(最久没有被访问)开始淘汰。
图1 K 被访问了,提升到链表的头部。
LRU 算法的实现还是比较容易的,但是由于每个操作都会有链表的修改,因此在并发访问时都每个操作需要加锁(双向链表没有无锁版的,只有单向链表有),不太利于并发访问。
同时,LRU 只将对象“最近是否被访问”作为度量指标,并不准确,偶发性和周期性的操作会导致 LRU 的命中率急剧下降,因此也提出了很多 LRU 的改进算法,例如 LRU-K,2Q,以及命中率更高的 LIRS 算法(它的论文是这么说的)。
后来,无意间看到了 OCP知识点讲解 之 LRU链与脏LRU链 这篇文章,里面介绍了一种 Oracle 改进的 LRU 算法,感觉效果会不错,实现起来也比较简单,因此使用该算法来实现缓冲池。
这个改进的算法将 LRU 链从中间分成了两半,前一半是热端,后一半是冷端,如图2所示。热端记录的是访问次数大于等于两次的对象,它们被认为可能会被经常访问到,冷端记录的是访问次数为一次的对象。区分热端和冷端,就可以保留访问次数较大的对象,同时更快的淘汰掉只访问了一次的对象,使命中情况更好,2Q 等改进算法使用的也是类似的思想。如果热端和冷端并不平均分配,就可以更快或更慢的淘汰掉只访问了一次的对象。
改进算法中还为每个对象的添加了访问次数,这样可以将冷端被经常访问的对象添加到热端,热端的对象也会被“降级”到冷端。下面则是具体的实现分析,为了方便起见,无论是热端还是冷端,都将左边作为头,右边作为尾。
1. 添加新对象
缓存空间还未满:与标准的 LRU 一样,总是插入到热端的头。因为此时缓存空间还足够,没必要区分对象是否被多次访问,之后在淘汰旧对象时自然可以区分出来。
缓存空间已满:这时先淘汰旧的对象,再将新对象添加到冷端的头。因为新添加对象的访问次数总是 1,所以应当放到冷端。
2. 访问对象
这里直接递增对象的访问计数即可,因此这个算法的并发访问效率可以提高一些。
3. 淘汰旧对象
淘汰旧对象是从冷端的末尾开始的,但并不是顺序进行淘汰,而是如果冷端末尾的对象的访问次数大于等于2,就认为可能会被经常访问,则将它移动到热端的头,并将访问次数清零,同时热端的末尾被淘汰到冷端的头。然后继续尝试淘汰,直到对象的访问次数小于2。清零访问次数保证了一定可以找到被淘汰的对象。
在淘汰旧对象时,如果访问次数大于等于2,并不需要真的每次都移除末尾节点再将它移动到热端的头。因为双向链表可以以环形存储(System.Collections.Generic.LinkedList 就是这么干的),也就是说 Head.Prev = Tail && Tail.Next = Head,所以这个移动过程就相当于将 head 变为 Head.Prev(也就是前移一位),如图3所示:淘汰从 H 开始,但是 H 的访问次数大于 2,就将 Head 从 A 移动到 H,H 自然就被添加到热端的头了,下一次尝试也就从 G 继续进行。
图3 尝试淘汰访问次数大于等于 2 的 H。
淘汰旧对象这里感觉很像 Clock 算法,不过 Clock 总是存储到刚被淘汰的位置,改进的 LRU 算法则是存储到冷端的头。
二、缓冲池接口定义
缓冲池接口的定义如下,是像 Dictioary 一样利用键来检索对象。在添加对象时,总是会覆盖旧对象;在检索时,由于必须要对对象的有效性进行判断(说不定什么时候就被替换掉了),因此提供的是 TryGet 方法而不是抛异常。为了方便使用缓冲池,加入了 GetOrAdd,这样就不用每次都判断对象是否存在了。
View Code
1 usingSystem;2
3 namespaceCyjb.Utility4 {5 ///
6 ///表示缓冲池的接口。7 ///
8 /// 缓冲对象的键的类型。
9 /// 缓冲对象的类型。
10 public interface ICache
11 {12 ///
13 ///将指定的键和对象添加到缓存中,无论键是否存在。14 ///
15 /// 要添加的对象的键。
16 /// 要添加的对象。
17 /// 为null。
18 voidAdd(TKey key, TValue value);19 ///
20 ///清空缓存中的所有对象。21 ///
22 voidClear();23 ///
24 ///确定缓存中是否包含指定的键。25 ///
26 /// 要在缓存中查找的键。
27 /// 如果缓存中包含具有指定键的元素,则为true;否则为false。
28 /// 为null。
29 boolContains(TKey key);30 ///
31 ///从缓存中获取与指定的键关联的对象,如果不存在则将对象添加到缓存中。32 ///
33 /// 要获取的对象的键。
34 /// 用于为键生成对象的函数。
35 /// 如果在缓存中找到该键,则为对应的对象;否则为返回的新对象。
36 /// 为null。
37 TValue GetOrAdd(TKey key, FuncvalueFactory);38 ///
39 ///从缓存中移除并返回具有指定键的对象。40 ///
41 /// 要移除并返回的对象的键。
42 /// 为null。
43 voidRemove(TKey key);44 ///
45 ///尝试从缓存中获取与指定的键关联的对象。46 ///
47 /// 要获取的对象的键。
48 /// 此方法返回时,包含缓存中具有指定键的对象;49 ///如果操作失败,则包含默认值。
50 /// 如果在缓存中找到该键,则为true;否则为false。
51 /// 为null。
52 bool TryGet(TKey key, outTValue value);53 }54 }
三、缓冲池的实现
缓冲池中,使用 ReaderWriterLockSlim 读写锁来实现并发访问,自己实现了一个双向环形链表来将对象链起来。如果对象实现了 System.IDisposable 接口,会在移除或替换对象时自动调用 Dispose 方法,这里需要注意的是 Dispose 最好在锁之外调用,防止 Dispose 方法导致锁不能尽快被释放掉。
添加对象的核心代码是:
1 LruNodenode;2 IDisposable disposable = null;3 cacheLock.EnterWriteLock();4 try
5 {6 if (cacheDict.TryGetValue(key, outnode))7 {8 //更新节点。
9 node.Value =value;10 //写锁互斥,这里不用 Interlocked。
11 node.VisitCount ;12 return;13 }14 else
15 {16 if (count
19 node = new LruNode(key, value);20 AddHotFirst(node);21 //写锁互斥,这里不用 Interlocked。
22 count ;23 if (count == hotSize 1)24 {25 codeHead =head.Prev;26 }27 cacheDict.Add(key, node);28 return;29 }30 else
31 {32 //从冷端末尾尝试淘汰旧节点,将访问次数大于 1 的移动到热端的头。33 //由于双向链表是环形存储的,就相当于将 head 前移。
34 while (head.Prev.VisitCount >= 2)35 {36 //清零访问计数。
37 head.Prev.VisitCount = 0;38 head =head.Prev;39 codeHead =codeHead.Prev;40 }41 //将 node 移除,并添加到冷端的头。
42 node =head.Prev;43 disposable = node.Value asIDisposable;44 this.cacheDict.Remove(node.Key);45 this.Remove(node);46 //这里直接重用旧节点。
47 node.Key =key;48 node.Value =value;49 node.VisitCount = 1;50 this.AddCodeFirst(node);51 cacheDict.Add(key, node);52 }53 }54 }55 finally
56 {57 cacheLock.ExitWriteLock();58 }59 if (disposable != null)60 {61 disposable.Dispose();62 }
可以看到,如果要添加的对象的键已存在,是直接替换旧对象的。双向链表的节点也都是重用的,所以没必要使用对象池(应该不会经常删除缓存项把……)。
在下面的 GetOrAdd 方法中,实际上就是分别调用了 TryGet 方法和 AddInternal 方法,这么做可能会导致不必要的添加,但是为了保证 valueFactory 不会影响释放锁,只好这么做了。
1 public TValue GetOrAdd(TKey key, FuncvalueFactory)2 {3 ExceptionHelper.CheckArgumentNull(key, "key");4 ExceptionHelper.CheckArgumentNull(valueFactory, "valueFactory");5 TValue value;6 if (this.TryGet(key, outvalue))7 {8 returnvalue;9 }10 value =valueFactory(key);11 this.AddInternal(key, value);12 returnvalue;13 }
四、命中率的测试
最后,稍微写了一段代码来测试算法的命中率,测试的四个算法分别是 OPT,改进的 LRU,普通的 LRU 和 FIFO。下面先附上测试代码:
View Code
1 int maxCacheSize = 200;2 //初始化数据。
3 int[] data = new int[100000];4 Random random = newRandom();5 for (int i = 0; i < data.Length; i )6 {7 if (random.Next(10) < 1)8 {9 data[i] = random.Next(10000);10 }11 else
12 {13 data[i] = random.Next(10000);14 }15 }16
17 //OPT。
18 int miss = 0;19 Dictionary nextVisit = new Dictionary();20 HashSet optCache = new HashSet();21 for (int i = 0; i < data.Length; i )22 {23 if (!optCache.Contains(data[i]))24 {25 miss ;26 if (optCache.Count >=maxCacheSize)27 {28 int minI = 0, maxVisit = 0;29 foreach (int j inoptCache)30 {31 if (!nextVisit.ContainsKey(j))32 {33 nextVisit.Add(j, 0);34 }35 if (nextVisit[j] <=i)36 {37 nextVisit[j] = int.MaxValue;38 for (int k = i 1; k < data.Length; k )39 {40 if (data[k] ==j)41 {42 nextVisit[j] =k;43 break;44 }45 }46 }47 if (nextVisit[j] >maxVisit)48 {49 maxVisit =nextVisit[j];50 minI =j;51 if (maxVisit == int.MaxValue)52 {53 break;54 }55 }56 }57 optCache.Remove(minI);58 }59 optCache.Add(data[i]);60 }61 }62 Console.WriteLine("OPT:{0}%", 100 - miss * 100.0 /data.Length);63
64 //LRU。
65 miss = 0;66 ICache cache = new LruCache(maxCacheSize);67 for (int i = 0; i < data.Length; i )68 {69 intvalue;70 if (!cache.TryGet(data[i], outvalue))71 {72 cache.Add(data[i], data[i]);73 miss ;74 }75 }76 Console.WriteLine("LRU:{0}%", 100 - miss * 100.0 /data.Length);77
78 //普通 LRU。
79 miss = 0;80 cache = new LruNormalCache(maxCacheSize);81 for (int i = 0; i < data.Length; i )82 {83 intvalue;84 if (!cache.TryGet(data[i], outvalue))85 {86 cache.Add(data[i], data[i]);87 miss ;88 }89 }90 Console.WriteLine("LRU_Normal:{0}%", 100 - miss * 100.0 /data.Length);91
92 //FIFO。
93 miss = 0;94 Queue queue = new Queue();95 HashSet set = new HashSet();96 for (int i = 0; i < data.Length; i )97 {98 if (!set.Contains(data[i]))99 {100 set.Add(data[i]);101 miss ;102 queue.Enqueue(data[i]);103 if (queue.Count >maxCacheSize)104 {105 set.Remove(queue.Dequeue());106 }107 }108 }109 Console.WriteLine("FIFO:{0}%", 100 - miss * 100.0 / data.Length);
下面是一些测试结果,缓冲大小都是 200,数据个数是 10W,第一列表示数据的范围,50% 0~1000,50% 0~150 表示有 50% 的数据范围在 0~1000,50% 的数据范围在 0~150。表格中的数值表示命中率。
数据范围
OPT
改进LRU
普通LRU
FIFO
50% 0~1000,50% 0~150
70.745%
50.966%
41.532%
37.325%
10% 0~1000,90% 0~150
93.851%
91.79%
89.941%
78.46%
10% 0~10000,90% 0~500
66.59%
34.056%
32.056%
31.342%
10% 0~10000,90% 0~5000
24.617%
3.705%
3.60599999999999%
3.605%
100% 0~10000
18.739%
2.04000000000001%
2.05500000000001%
2.063%
这些只是随意的测试,没有多大的参考价值,不过看起来改进的 LRU 还是比较给力的,可以比较好的保留经常被访问的数据。而当所有数据都是随机访问的时候,命中率反而会下降,甚至还不如 FIFO。
对于并发访问的测试,我不太了解怎么弄,所以就没有做,不过个人感觉 ReaderWriterLockSlim 应该就没有问题了。