ConcurrentHaspLRUHashMap实现初探

一、关于LRU。

LRU即LeastRencetlyUsed(最近最少使用)缓存替换策略。在任何LRU算法中,它必定有以下两个策略组成:

1、退化策略。根据访问情况,对节点按热度进行排序(hot->cold),以便决定哪些节点是热节点(hot)的,哪些节点是冷节点(cold)的。这个退化的策略,一般按以下两种方式去处理:

l非集中式。即每命中一次就进行退化操作。

非集中式的退化操作,往往由双向链表的方式去实现。每次命中之后就移动命中节点在链表中的位置。(位置靠前的就是hot的数据)。当然,复杂的策略中,有用queue数组进行hot分级等。

l集中式。定期去进行退化操作。

在集中式的退化操作,常用的策略是:每次命中之后,记录一个时间戳、定时器时间点等等参数。由一个线程去扫描,定期清除老数据。

2、清除策略。即去掉那些cold的数据。

l替换。这个在操作系统缓存中应该是一个常用的做法。

l删除。删除掉数据,以腾出空间放新的数据。(因为内存是有限的)

二、ConcurrentHashMap与LinkedHashMap

在JAVA中,LRU的原生实现是JDK中LinkedHashMap。LinkedHashMap继承自HashMap

【实现原理】简单说就是HashMap的每个节点做一个双向链表。每次访问这个节点,就把该节点移动到双向链表的头部。满了以后,就从链表的尾部删除。但是LinkedHashMap并是非线程安全(其实现中,双向链表的操作是没有任何线程安全的措施的)。

对于线程安全的HashMap,在JDK中有ConcurrentHashMap原生支持。

【实现原理】采用锁分离机制,把一个HashMap分成多个segement,对每个segement的写操作上锁。同时,他的get()操作是没有锁的,具体思想就是把每个hash槽中的链表的头节点置成final的。对hash槽中链表操作,只能从头部去处理。这样就不会有读不一致的情况出现。这个原理,最好还是看源码,比较清晰。

三、ConcurrentLRUHashMap的实现方式一:直接包装LinkedHashMap。

即,在LinkedHashMap外层全部加锁。

典型代码:

public V get(Object key) {
lock.lock();
try {
return super.get(key);
}
finally {
lock.unlock();
}
}

对LinkedHashMap做包装,所有访问都是带锁委托给LinkedHashMap。这样虽然解决了多线程安全问题。但是,是以严重的性能消耗为代价代价。

四、ConcurrentLRUHashMap实现方式二:直接改造ConcurrentHashMap

该方案主要是重写ConcurrentHashMap。

1、给每个Entry加一个timestamp。

2、每次get命中的话,修改时间戳。

3、定时统计整个map的总量,如果总量大于某个阈值,则deadline往后推。同时,在put的时候,检查hash槽里面每个节点的时间戳,如果已经过期,就删除掉过期节点。

上述做法,删除操作分布在每次put操作中。所以,删除效率比较高。但是,由于时间片不可控,最终将导致内存爆炸的情况出现。

请看下面一种场景:

横坐标表示一个时间片。面积表示这个时间片里面节点数量。

假定节点命中率为50%(命中后,更新到命中时刻的时间片),每个时间片写入10条新数据。

我们可以在运行过程中,每个时间片定义一个更新一次deadline。在put数据的时候,我们可以检查hash槽中Entry是否过期,如果已经过期,则删掉过期数据。

1、时间片的选择问题。

这个方案中,时间片的选择是一个比较困难的问题。因为,如果系统在一个时间片之内爆掉内存的话,系统将直接崩溃。

当然,这个问题,我们可以加外部限制得方式去控制

2、deadline之前的数据,不能很快删除。导致deaddata滞留,浪费大量的内存

假定deadline之前的数据,约为总数据量的10%。因为删数据操作,只在put的时候。假定每个时间点的put操作,能覆盖20%的hash槽。这个10%*20%=2%,每个时间点,只能删除2%的过期数据。然后,随着时间的推移。这个过程必将趋于稳定。而这个趋于稳定后,内存消耗,至少是capacity的4-5倍。这样的消耗和浪费。是难以承受的。

这个方案,从实际测试来看,情况非常糟糕。所以最终还是放弃了。

五、ConcurrentLRUHashMap实现方式三:分段实现锁分离+每个段内维护一份退化链表

【实现策略】:

1、锁分离机制。内部分成了多个segement,每个segement是独立加锁,相互不干扰。

2、每个segement内部维护一个双向链表(退化链表)。每次命中/添加,就把节点移动到退化链表头部。

3、每次put操作,通过hash,散到每个segement中,判断segment的容量是否到达阈值。如果到达阈值,则删除退化链表中最末尾的节点。

【实现】

1、重新定义HashEntry<K,V>

<div>static class HashEntry&lt;K, V&gt; {</div>
<div>/**</div>
<div>* 键</div>
<div>*/</div>
<div>final K key;</div>
<div>/**</div>
<div>* hash值</div>
<div>*/</div>
<div>final int hash;</div>
<div>/**</div>
<div>* 值</div>
<div>*/</div>
<div>volatile V value;</div>
<div>/**</div>
<div>* hash链指针</div>
<div>*/</div>
<div>final HashEntry&lt;K, V&gt; next;</div>
<div>/**</div>
<div>* 双向链表的下一个节点</div>
<div>*/</div>
<div>HashEntry&lt;K, V&gt; linknext;</div>
<div>/**</div>
<div>* 双向链表的下一个节点</div>
<div>*/</div>
<div>HashEntry&lt;K, V&gt; linkpref;</div>
<div>/**</div>
<div>* 死亡标记</div>
<div>*/</div>
<div>AtomicBoolean dead;</div>
}

2、定义segment

static final class Segment&lt;K, V&gt; extends ReentrantLock implements
<span>            </span>Serializable {
<span>        </span>private static final long serialVersionUID = 1L;
<span>        </span>transient int threshold;
<span>        </span>transient volatile int count;
<span>        </span>transient int modCount;
<span>        </span>transient volatile HashEntry&lt;K, V&gt;[] table;
<span>        </span>transient final HashEntry&lt;K, V&gt; header;// 头节点
}

3、put操作

代码太长了,见附件吧

4、get操作

V get(Object key, int hash) {
HashEntry&lt;K, V&gt; e = getFirst(hash);
// 遍历查找
while (e != null) {
if (e.hash == hash &amp;&amp; key.equals(e.key)) {
V v = e.value;
// 把节点移动到头部。
moveNodeToHeader(e);
if (v != null)
return v;
// 在锁的情况读,必定能读到。
// tab[index] = new HashEntry&lt;K,V&gt;(key, hash, first, value),
// value赋值和tab[index]赋值可能会重新排序,重新排序之后,可能会读空值
// 读到空值的话,在有锁的情况在再读一遍,一定能读!
return readValueUnderLock(e); // recheck
}
e = e.next;
}
return null;

六、ConcurrentLRUHashMap实现方式四:

具体的做法是:

1、对concurrentHashMap每个节点加时间戳,每次命中只修改该节点的时间戳。

2、集中式退化操作,每次命中并不进行退化操作。而是集中式进行退化操作(满的时候,或者时间到了)。

代码:

V get(Object key, int hash) {
HashEntry&lt;K, V&gt; e = getFirst(hash);
// 遍历查找
while (e != null) {
if (e.hash == hash &amp;&amp; key.equals(e.key)) {
V v = e.value;
// 把节点移动到头部。
moveNodeToHeader(e);
if (v != null)
return v;
// 在锁的情况读,必定能读到。
// tab[index] = new HashEntry&lt;K,V&gt;(key, hash, first, value),
// value赋值和tab[index]赋值可能会重新排序,重新排序之后,可能会读空值
// 读到空值的话,在有锁的情况在再读一遍,一定能读!
return readValueUnderLock(e); // recheck
}
e = e.next;
}
return null;

该方案的好处:

1、快速执行get操作。get操作的时间是“concurrentHashMap的get时间+更新时间戳”的时间。

2、put操作,一般的put操作的时间是“concurrentHashMap的put时间”,只要还未到达容量限制。而到达容量限制以后的,需要进行“退化,清理操作”+put的时间

该方案的可能存在的问题:

1、命中率,该算法的命中率同linkedHashMap

2、清除策略:

l满了,执行清楚。缺点:1、会出现某个时刻,写操作卡死(如果正在等待清理的话)

l定时执行。缺点:1、性能耗费。2、读不一致仍然无法避免。

七、ConcurrentLRUHashMap实现方式的比较

本文只是抛砖引玉,希望能看到更多好多ConcurrentLRUHashMap的实现方式。由于能力有限。上文提到的第二种实现方式,在实际实现中并不能很好的退化,最终可能导致内存溢出。具体分析如下表

方式方式一方式二方式三方式四
性能
线程安全绝对安全安全安全安全
内存消耗一般很多一般一般
稳定性稳定不稳定稳定不稳定

总体来说,第三者性较好。

比较方式一和方式三: