LRU是Least Recently Used的缩写,意思是最近最少使用,它是一种Cache替换算法。
狭义的Cache指的是位于CPU和主存间的快速RAM, 通常它不像系统主存那样使用DRAM技术,而使用昂贵但较快速的SRAM技术。
广义上的Cache指的是位于速度相差较大的两种 硬件之间 ,用于协调两者数据传输速度差异的结构。除了CPU与主存之间有Cache, 内存与硬盘 之间也有Cache,乃至在硬盘与网络之间也有某种意义上的Cache── 称为Internet临时文件夹或 网络内容缓存等。
![](https://i-blog.csdnimg.cn/blog_migrate/95194db2828bc8b13a72e3be853463bb.png)
Cache的容量有限,因此当Cache的容量用完后,而又有新的内容需要添加进来时, 就需要挑选
并舍弃原有的部分内容,从而腾出空间来放新内容。LRU Cache 的替换原则就是将最近最少使用
的内容替换掉。其实,LRU译成最久未使用会更形象, 因为该算法每次替换掉的就是一段时间内
最久没有使用过的内容。
实现LRU Cache的方法和思路很多,但是要保持高效实现O(1)的put和get,那么使用双向链表和
哈希表的搭配是最高效和经典的。使用双向链表是因为双向链表可以实现任意位置O(1)的插入和
删除,使用哈希表是因为哈希表的增删查改也是O(1)
。
OJ练习:146. LRU 缓存 - 力扣(LeetCode)
大致思路:
我们可以在哈希表中的Val中存链表中结点的指针 ,每次查找或者插入都将这个结点放到链表的头部,如果Cache满了就从链表上尾删。
实现代码:
class LRUCache {
public:
LRUCache(int capacity)
:_capacity(capacity)
{
}
int get(int key) {
auto ret = _hashMap.find(key);
if(ret != _hashMap.end())
{
LtIter it = ret->second;
// 我们也可以将这个结点删除后,再头插一个新的,不过要注意迭代器失效问题
// 这里我们用另一种方法。
// 直接将该结点放到头节点的前面。
_LRUList.splice(_LRUList.begin(),_LRUList,it);
return it->second;
}
else
{
return -1;
}
}
void put(int key, int value) {
// 选一件:1.新增。2.更新
auto ret = _hashMap.find(key);
if(ret != _hashMap.end()) // 说明这个结点本来存在,那么只需要更新
{
LtIter it = ret->second;
it->second = value; // 更新
// 然后转移结点
_LRUList.splice(_LRUList.begin(),_LRUList,it);
}
else // 说明要新增
{
// 先看 Cache是否满了, 满了就尾删链表的数据
if(_LRUList.size() >= _capacity)
{
_hashMap.erase(_LRUList.back().first);
_LRUList.pop_back();
}
_LRUList.push_front(make_pair(key,value));
_hashMap[key] = _LRUList.begin();
}
}
private:
typedef list<pair<int,int>>::iterator LtIter;
int _capacity;
unordered_map<int,LtIter> _hashMap;
list<pair<int,int>> _LRUList;
};