一、简单介绍
1、LRU 中文意思是 最近最少访问缓存淘汰,在我们的生活中到处可见。当我们用链表实现是需要O(n)时间复杂度。
2、我们需要维护一个按照访问时间从大到小有序排列的链表结构。因为缓存大小有限,当缓存空间不够,需要淘汰一个数据的时候,我们就直接将链表头部的结点删除。
(1)、当要缓存某个数据的时候,先在链表中查找这个数据。如果没有找到,则直接将数据放到链表的尾部;
(2)、如果找到了,我们就把它移动到链表的尾部。因为查找数据需要遍历链表,所以单纯用链表实现的 LRU 缓存淘汰算法的时间复杂很高,是 O(n)。
3、实际上,我总结一下,一个缓存(cache)系统主要包含下面这几个操作:
往缓存中添加一个数据;
从缓存中删除一个数据;
在缓存中查找一个数据。
这三个操作都要涉及“查找”操作,如果单纯地采用链表的话,时间复杂度只能是 O(n)。如果我们将散列表和链表两种数据结构组合使用,可以将这三个操作的时间复杂度都降低到 O(1)。
二、代码实现
package com.ipp.test;
import java.util.Iterator;
import java.util.LinkedList;
import java.util.Map;
/**
* 基于链表实现
*/
public class LRUList {
private LinkedList<Integer> list;
private int cacheSize;
LRUList(int cacheSize) {
this.cacheSize = cacheSize;
list