缓存置换算法之LRU/LFU

本文详细介绍了两种常见的缓存置换算法——LRU(最近最久未使用)和LFU(最少使用)。LRU利用LinkedHashMap实现,通过before/after指针维护访问顺序;LFU则结合计数排序和哈希表,记录访问频率。文章还提供了具体的Java代码实现,并探讨了LFU的优化方向。
摘要由CSDN通过智能技术生成

常见缓存置换算法

  • LRU 最近最久未使用
  • FIFO 先进先出置换算法 类似队列
  • OPT 最佳置换算法 (理想中存在的)
  • NRU Clock置换算法
  • LFU 最少使用置换算法
  • PBA 页面缓冲算法

LRU

实现原理:链表+hash表
查询插入时间复杂度:O(1)
代码实现:LinkedHashMap
dubbo的工具LRU工具类便是继承自LinkedHashMap:com.alibaba.dubbo.common.utils.LRUCache

数据结构

HashMap结构基础上,为所有Node节点维护一个双向链表,并增加了head,tail指针,如下图
1

代码实现

put

LinkedHashMap重写了HashMap的新增节点方法

// 该方法返回的新增节点存储之hash表中
Node<K,V> newNode(int hash, K key, V value, Node<K,V> e) {
    LinkedHashMap.Entry<K,V> p =
        new LinkedHashMap.Entry<K,V>(hash, key, value, e);
    // 将新增节点维护至双向链表的尾巴节点
    linkNodeLast(p);
    return p;
}
// 将新节点链接至尾巴节点
private void linkNodeLast(LinkedHashMap.Entry<K,V> p) {
    LinkedHashMap.Entry<K,V> last = tail;
    tail = p;
    if (last == null)
        head = p;
    else {
        p.before = last;
        last.after = p;
    }
}

put代码实现相对来说较为简单,直接追加至尾巴节点即可,因为新增节点是最新使用的节点

get

LinkedHashMap重写了HashMap的get方法

public V get(Object key) {
    Node<K,V> e;
    if ((e = getNode(hash(key), key)) == null)
        return null;
    // 通过accessOrder属性决定是否需要维护访问节点至尾巴节点(LRU规则)
    // 该参数不能动态修改,构造方法指定
    if (accessOrder)
        afterNodeAccess(e);
    return e.value;
}
// 移动指定节点至尾巴节点
void afterNodeAccess(Node<K,V> e) { // move node to last
    LinkedHashMap.Entry<K,V> last;
    // 1. 如果当前节点不是尾巴节点则移动
    if (accessOrder && (last = tail) != e) {
        LinkedHashMap.Entry<K,V> p =
            (LinkedHashMap.Entry<K,V>)e, b = p.before, a = p.after;
        p.after = null;
        if (b == null)
            // 2. 如果当前节点的父节点为null,将子节点置为head头节点
            head = a;
        else
            // 3. 如果父节点不为null,将父节点的子节点置为当前节点的子节点
            b.after = a;
        if (a != null)
            // 4. 如果子节点不为null,将子节点的父节点置为当前节点的父节点
            a.before = b;
        else
            // 5. 如果子节点为null,将父节点置为last节点
            last = b;
        if (last == null)
            // 走到此处逻辑的前提条件:b为null(步骤5中的b节点为null),a为null(逻辑走到
            // 步骤5的前提是子节点为null)
            // 
            // 6. 如果父节点为null,子节点也为null,将当前节点置为head头节点
            head = p;
        else {
            // 7. 如果尾巴节点不为null,当前节点的父节点置为尾巴节点
            p.before = last;
            // 8. 尾巴节点的子节点置为当前节点
            last.after = p;
        }
        // 9. 当前节点置为尾巴节点
        tail = p;
        ++modCount;
    }
}

问题

为什么LinkedHashMap节点维护的指针为before/after,而不是pre/next?
因为next指针维护的是hash冲突时的链表结构的子节点,pre指针维护的是hash冲突时红黑树结构的前置节点

LFU实现

实现原理:计数排序+hash表
查询插入时间复杂度:O(1)

数据结构

2

代码实现

package org.gallant.leetcode.algorithms;

import java.io.Serializable;
import java.util.ArrayList;
import java.util.Arrays;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Map.Entry;

/**
 * @author : 会灰翔的灰机
 * @date : 2021/7/31
 */
public class LeastFrequentlyUsedCache {

  private final Map<Integer, CountableData> DATA = new HashMap<>();
  private final Map<Integer, List<CountableData>> COUNTING_SORT = new HashMap<>();

  public void put(Integer key, String value) {
    CountableData countableData = DATA.get(key);
    if (countableData == null) {
      countableData = new CountableData();
      countableData.setCount(0);
      DATA.put(key, countableData);
      initCountingSort(countableData.getCount());
      COUNTING_SORT.get(countableData.getCount()).add(countableData);
    } else {
      int oldCount = countableData.getCount();
      int newCount = oldCount + 1;
      countableData.setCount(newCount);
      initCountingSort(oldCount, newCount);
      COUNTING_SORT.get(oldCount).remove(countableData);
      COUNTING_SORT.get(newCount).add(countableData);
    }
    countableData.setKey(key);
    countableData.setData(value);
  }

  public CountableData get(Integer key) {
    int oldCount = 0;
    int newCount = 1;
    CountableData countableData = DATA.get(key);
    if (countableData == null) {
      return null;
    } else {
      oldCount = countableData.getCount();
      newCount = oldCount + 1;
      countableData.setCount(newCount);
    }
    initCountingSort(oldCount, newCount);
    COUNTING_SORT.get(oldCount).remove(countableData);
    COUNTING_SORT.get(newCount).add(countableData);
    return countableData;
  }

  private void initCountingSort(Integer... counts) {
    Arrays.stream(counts).forEach(count -> COUNTING_SORT.computeIfAbsent(count, k -> new ArrayList<>()));
  }

  public void printData() {
    System.out.println(DATA);
    System.out.println(COUNTING_SORT);
    System.out.println("-----------");
  }

  public void expel() {
    for (Entry<Integer, List<CountableData>> integerListEntry : COUNTING_SORT.entrySet()) {
      Integer k = integerListEntry.getKey();
      List<CountableData> v = integerListEntry.getValue();
      if (v != null && v.size() > 0) {
        v.forEach(countableData -> {
          DATA.remove(countableData.getKey());
          COUNTING_SORT.remove(countableData.getCount());
        });
        break;
      }
    }
  }

  private static class CountableData implements Serializable {

    private static final long serialVersionUID = -1449571685883654388L;
    private Integer key;
    private String data;
    private Integer count;

    public Integer getKey() {
      return key;
    }

    public void setKey(Integer key) {
      this.key = key;
    }

    public Object getData() {
      return data;
    }

    public void setData(String data) {
      this.data = data;
    }

    public Integer getCount() {
      return count;
    }

    public void setCount(Integer count) {
      this.count = count;
    }

    @Override
    public String toString() {
      return "{" + data +
          ", " + count +
          '}';
    }
  }

  public static void main(String[] args) {
    LeastFrequentlyUsedCache cache = new LeastFrequentlyUsedCache();
    for (int i = 0; i < 10; i++) {
      cache.put(i, "data-" + i);
    }
    cache.printData();
    for (int i = 0; i < 3; i++) {
      cache.get(0);
    }
    for (int i = 0; i < 5; i++) {
      cache.get(3);
    }
    cache.printData();
    cache.expel();
    System.out.println("驱逐数据后");
    cache.printData();
  }

}

执行结果


{0={data-0, 0}, 1={data-1, 0}, 2={data-2, 0}, 3={data-3, 0}, 4={data-4, 0}, 5={data-5, 0}, 6={data-6, 0}, 7={data-7, 0}, 8={data-8, 0}, 9={data-9, 0}}
{0=[{data-0, 0}, {data-1, 0}, {data-2, 0}, {data-3, 0}, {data-4, 0}, {data-5, 0}, {data-6, 0}, {data-7, 0}, {data-8, 0}, {data-9, 0}]}
-----------
{0={data-0, 3}, 1={data-1, 0}, 2={data-2, 0}, 3={data-3, 5}, 4={data-4, 0}, 5={data-5, 0}, 6={data-6, 0}, 7={data-7, 0}, 8={data-8, 0}, 9={data-9, 0}}
{0=[{data-1, 0}, {data-2, 0}, {data-4, 0}, {data-5, 0}, {data-6, 0}, {data-7, 0}, {data-8, 0}, {data-9, 0}], 1=[], 2=[], 3=[{data-0, 3}], 4=[], 5=[{data-3, 5}]}
-----------
驱逐数据后
{0={data-0, 3}, 3={data-3, 5}}
{1=[], 2=[], 3=[{data-0, 3}], 4=[], 5=[{data-3, 5}]}
-----------

Process finished with exit code 0

小结

LFU实现方法很多,实现整体思路总结几点

  1. hash表提供存储,可以提供高效的访问诉求
  2. 为每个value数据存储访问计数器,每次访问数据都需要额外维护计数器数据
  3. 基于计数器对数据进行排序
  4. 驱逐排序后访问次数最低的数据

优化方向

  1. 排序方法可以按需选择,选择适合自己业务诉求的算法,时间优先?还是空间优先?
  2. 排序触发时机,可以按照业务诉求选择延迟批量排序,而不是实时排序,比如,当计数器发生变更达到某个阈值时触发一次排序,或者驱逐前触发一次排序,按需选择适合业务需求的就是最好的方案
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值