oracle11g 缓冲池,一个改进 LRU 算法的缓冲池

首先,这里的缓冲池指的是 Cache,而不是 Buffer,就是指将代价较大的对象先存储起来,以备以后需要的时候可以直接拿来用,能够节约一些时间或空间。

当缓冲池中的对象过多时,就需要删掉一些“不会再用”的对象来节约内存。但是没人能够知道某个对象什么时候会再用,因此这就涉及到缓存替换算法了,好的缓存替换算法可以有更大的概率删掉“不会再用”的对象,能够保留“很可能再用”的对象。

现在发明的缓存替换算法有很多,除了只有理论意义的 OPT(Optimal,最优替换,也就是上帝模式)和听天由命的随机替换,常用的有 LRU(Least recently used,最近最少使用),LFU(Least Frequently Used,最不经常使用)和 FIFO(First in first out,先进先出)以及很多改进算法。其中 LRU 算法经常被使用,我也打算使用 LRU 算法来实现一个缓冲池。

一、改进的 LRU 算法

LRU 算法认为最近被访问的对象,以后也很可能被访问。因此,在实现时,一般使用一个哈希表类存储被缓存的对象,和一个双向链表类存储对象被使用的情况:如果一个对象被访问了,就将它提升到链表的头部,如图1所示,这样就能保证最近被访问的对象总是更接近头部。当添加新对象时,直接添加到链表的头部;当需要淘汰旧对象时,就从链表的尾部(最久没有被访问)开始淘汰。

34287255_1.jpg

图1 K 被访问了,提升到链表的头部。

LRU 算法的实现还是比较容易的,但是由于每个操作都会有链表的修改,因此在并发访问时都每个操作需要加锁(双向链表没有无锁版的,只有单向链表有),不太利于并发访问。

同时,LRU 只将对象“最近是否被访问”作为度量指标,并不准确,偶发性和周期性的操作会导致 LRU 的命中率急剧下降,因此也提出了很多 LRU 的改进算法,例如 LRU-K,2Q,以及命中率更高的 LIRS 算法(它的论文是这么说的)。

后来,无意间看到了 OCP知识点讲解 之 LRU链与脏LRU链 这篇文章,里面介绍了一种 Oracle 改进的 LRU 算法,感觉效果会不错,实现起来也比较简单,因此使用该算法来实现缓冲池。

这个改进的算法将 LRU 链从中间分成了两半,前一半是热端,后一半是冷端,如图2所示。热端记录的是访问次数大于等于两次的对象,它们被认为可能会被经常访问到,冷端记录的是访问次数为一次的对象。区分热端和冷端,就可以保留访问次数较大的对象,同时更快的淘汰掉只访问了一次的对象,使命中情况更好,2Q 等改进算法使用的也是类似的思想。如果热端和冷端并不平均分配,就可以更快或更慢的淘汰掉只访问了一次的对象。

34287255_2.png

改进算法中还为每个对象的添加了访问次数,这样可以将冷端被经常访问的对象添加到热端,热端的对象也会被“降级”到冷端。下面则是具体的实现分析,为了方便起见,无论是热端还是冷端,都将左边作为头,右边作为尾。

1. 添加新对象

缓存空间还未满:与标准的 LRU 一样,总是插入到热端的头。因为此时缓存空间还足够,没必要区分对象是否被多次访问,之后在淘汰旧对象时自然可以区分出来。

缓存空间已满:这时先淘汰旧的对象,再将新对象添加到冷端的头。因为新添加对象的访问次数总是 1,所以应当放到冷端。

2. 访问对象

这里直接递增对象的访问计数即可,因此这个算法的并发访问效率可以提高一些。

3. 淘汰旧对象

淘汰旧对象是从冷端的末尾开始的,但并不是顺序进行淘汰,而是如果冷端末尾的对象的访问次数大于等于2,就认为可能会被经常访问,则将它移动到热端的头,并将访问次数清零,同时热端的末尾被淘汰到冷端的头。然后继续尝试淘汰,直到对象的访问次数小于2。清零访问次数保证了一定可以找到被淘汰的对象。

在淘汰旧对象时,如果访问次数大于等于2,并不需要真的每次都移除末尾节点再将它移动到热端的头。因为双向链表可以以环形存储(System.Collections.Generic.LinkedList 就是这么干的),也就是说 Head.Prev = Tail && Tail.Next = Head,所以这个移动过程就相当于将 head 变为 Head.Prev(也就是前移一位),如图3所示:淘汰从 H 开始,但是 H 的访问次数大于 2,就将 Head 从 A 移动到 H,H 自然就被添加到热端的头了,下一次尝试也就从 G 继续进行。

34287255_3.jpg

图3 尝试淘汰访问次数大于等于 2 的 H。

淘汰旧对象这里感觉很像 Clock 算法,不过 Clock 总是存储到刚被淘汰的位置,改进的 LRU 算法则是存储到冷端的头。

二、缓冲池接口定义

缓冲池接口的定义如下,是像 Dictioary 一样利用键来检索对象。在添加对象时,总是会覆盖旧对象;在检索时,由于必须要对对象的有效性进行判断(说不定什么时候就被替换掉了),因此提供的是 TryGet 方法而不是抛异常。为了方便使用缓冲池,加入了 GetOrAdd,这样就不用每次都判断对象是否存在了。

34287255_4.gifView Code

34287255_5.gif1 usingSystem;2

3 namespaceCyjb.Utility4 {5 ///

6 ///表示缓冲池的接口。7 ///

8 /// 缓冲对象的键的类型。

9 /// 缓冲对象的类型。

10 public interface ICache

11 {12 ///

13 ///将指定的键和对象添加到缓存中,无论键是否存在。14 ///

15 /// 要添加的对象的键。

16 /// 要添加的对象。

17 /// 为null。

18 voidAdd(TKey key, TValue value);19 ///

20 ///清空缓存中的所有对象。21 ///

22 voidClear();23 ///

24 ///确定缓存中是否包含指定的键。25 ///

26 /// 要在缓存中查找的键。

27 /// 如果缓存中包含具有指定键的元素,则为true;否则为false。

28 /// 为null。

29 boolContains(TKey key);30 ///

31 ///从缓存中获取与指定的键关联的对象,如果不存在则将对象添加到缓存中。32 ///

33 /// 要获取的对象的键。

34 /// 用于为键生成对象的函数。

35 /// 如果在缓存中找到该键,则为对应的对象;否则为返回的新对象。

36 /// 为null。

37 TValue GetOrAdd(TKey key, FuncvalueFactory);38 ///

39 ///从缓存中移除并返回具有指定键的对象。40 ///

41 /// 要移除并返回的对象的键。

42 /// 为null。

43 voidRemove(TKey key);44 ///

45 ///尝试从缓存中获取与指定的键关联的对象。46 ///

47 /// 要获取的对象的键。

48 /// 此方法返回时,包含缓存中具有指定键的对象;49 ///如果操作失败,则包含默认值。

50 /// 如果在缓存中找到该键,则为true;否则为false。

51 /// 为null。

52 bool TryGet(TKey key, outTValue value);53 }54 }

34287255_5.gif

三、缓冲池的实现

缓冲池中,使用 ReaderWriterLockSlim 读写锁来实现并发访问,自己实现了一个双向环形链表来将对象链起来。如果对象实现了 System.IDisposable 接口,会在移除或替换对象时自动调用 Dispose 方法,这里需要注意的是 Dispose 最好在锁之外调用,防止 Dispose 方法导致锁不能尽快被释放掉。

添加对象的核心代码是:

34287255_5.gif1 LruNodenode;2 IDisposable disposable = null;3 cacheLock.EnterWriteLock();4 try

5 {6 if (cacheDict.TryGetValue(key, outnode))7 {8 //更新节点。

9 node.Value =value;10 //写锁互斥,这里不用 Interlocked。

11 node.VisitCount ;12 return;13 }14 else

15 {16 if (count

19 node = new LruNode(key, value);20 AddHotFirst(node);21 //写锁互斥,这里不用 Interlocked。

22 count ;23 if (count == hotSize 1)24 {25 codeHead =head.Prev;26 }27 cacheDict.Add(key, node);28 return;29 }30 else

31 {32 //从冷端末尾尝试淘汰旧节点,将访问次数大于 1 的移动到热端的头。33 //由于双向链表是环形存储的,就相当于将 head 前移。

34 while (head.Prev.VisitCount >= 2)35 {36 //清零访问计数。

37 head.Prev.VisitCount = 0;38 head =head.Prev;39 codeHead =codeHead.Prev;40 }41 //将 node 移除,并添加到冷端的头。

42 node =head.Prev;43 disposable = node.Value asIDisposable;44 this.cacheDict.Remove(node.Key);45 this.Remove(node);46 //这里直接重用旧节点。

47 node.Key =key;48 node.Value =value;49 node.VisitCount = 1;50 this.AddCodeFirst(node);51 cacheDict.Add(key, node);52 }53 }54 }55 finally

56 {57 cacheLock.ExitWriteLock();58 }59 if (disposable != null)60 {61 disposable.Dispose();62 }

34287255_5.gif

可以看到,如果要添加的对象的键已存在,是直接替换旧对象的。双向链表的节点也都是重用的,所以没必要使用对象池(应该不会经常删除缓存项把……)。

在下面的 GetOrAdd 方法中,实际上就是分别调用了 TryGet 方法和 AddInternal 方法,这么做可能会导致不必要的添加,但是为了保证 valueFactory 不会影响释放锁,只好这么做了。

34287255_5.gif1 public TValue GetOrAdd(TKey key, FuncvalueFactory)2 {3 ExceptionHelper.CheckArgumentNull(key, "key");4 ExceptionHelper.CheckArgumentNull(valueFactory, "valueFactory");5 TValue value;6 if (this.TryGet(key, outvalue))7 {8 returnvalue;9 }10 value =valueFactory(key);11 this.AddInternal(key, value);12 returnvalue;13 }

34287255_5.gif

四、命中率的测试

最后,稍微写了一段代码来测试算法的命中率,测试的四个算法分别是 OPT,改进的 LRU,普通的 LRU 和 FIFO。下面先附上测试代码:

34287255_4.gifView Code

34287255_5.gif1 int maxCacheSize = 200;2 //初始化数据。

3 int[] data = new int[100000];4 Random random = newRandom();5 for (int i = 0; i < data.Length; i )6 {7 if (random.Next(10) < 1)8 {9 data[i] = random.Next(10000);10 }11 else

12 {13 data[i] = random.Next(10000);14 }15 }16

17 //OPT。

18 int miss = 0;19 Dictionary nextVisit = new Dictionary();20 HashSet optCache = new HashSet();21 for (int i = 0; i < data.Length; i )22 {23 if (!optCache.Contains(data[i]))24 {25 miss ;26 if (optCache.Count >=maxCacheSize)27 {28 int minI = 0, maxVisit = 0;29 foreach (int j inoptCache)30 {31 if (!nextVisit.ContainsKey(j))32 {33 nextVisit.Add(j, 0);34 }35 if (nextVisit[j] <=i)36 {37 nextVisit[j] = int.MaxValue;38 for (int k = i 1; k < data.Length; k )39 {40 if (data[k] ==j)41 {42 nextVisit[j] =k;43 break;44 }45 }46 }47 if (nextVisit[j] >maxVisit)48 {49 maxVisit =nextVisit[j];50 minI =j;51 if (maxVisit == int.MaxValue)52 {53 break;54 }55 }56 }57 optCache.Remove(minI);58 }59 optCache.Add(data[i]);60 }61 }62 Console.WriteLine("OPT:{0}%", 100 - miss * 100.0 /data.Length);63

64 //LRU。

65 miss = 0;66 ICache cache = new LruCache(maxCacheSize);67 for (int i = 0; i < data.Length; i )68 {69 intvalue;70 if (!cache.TryGet(data[i], outvalue))71 {72 cache.Add(data[i], data[i]);73 miss ;74 }75 }76 Console.WriteLine("LRU:{0}%", 100 - miss * 100.0 /data.Length);77

78 //普通 LRU。

79 miss = 0;80 cache = new LruNormalCache(maxCacheSize);81 for (int i = 0; i < data.Length; i )82 {83 intvalue;84 if (!cache.TryGet(data[i], outvalue))85 {86 cache.Add(data[i], data[i]);87 miss ;88 }89 }90 Console.WriteLine("LRU_Normal:{0}%", 100 - miss * 100.0 /data.Length);91

92 //FIFO。

93 miss = 0;94 Queue queue = new Queue();95 HashSet set = new HashSet();96 for (int i = 0; i < data.Length; i )97 {98 if (!set.Contains(data[i]))99 {100 set.Add(data[i]);101 miss ;102 queue.Enqueue(data[i]);103 if (queue.Count >maxCacheSize)104 {105 set.Remove(queue.Dequeue());106 }107 }108 }109 Console.WriteLine("FIFO:{0}%", 100 - miss * 100.0 / data.Length);

34287255_5.gif

下面是一些测试结果,缓冲大小都是 200,数据个数是 10W,第一列表示数据的范围,50% 0~1000,50% 0~150 表示有 50% 的数据范围在 0~1000,50% 的数据范围在 0~150。表格中的数值表示命中率。

数据范围

OPT

改进LRU

普通LRU

FIFO

50% 0~1000,50% 0~150

70.745%

50.966%

41.532%

37.325%

10% 0~1000,90% 0~150

93.851%

91.79%

89.941%

78.46%

10% 0~10000,90% 0~500

66.59%

34.056%

32.056%

31.342%

10% 0~10000,90% 0~5000

24.617%

3.705%

3.60599999999999%

3.605%

100% 0~10000

18.739%

2.04000000000001%

2.05500000000001%

2.063%

这些只是随意的测试,没有多大的参考价值,不过看起来改进的 LRU 还是比较给力的,可以比较好的保留经常被访问的数据。而当所有数据都是随机访问的时候,命中率反而会下降,甚至还不如 FIFO。

对于并发访问的测试,我不太了解怎么弄,所以就没有做,不过个人感觉 ReaderWriterLockSlim 应该就没有问题了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值