03 LRU Cache

1. 什么是LRU Cache

LRU是Least Recently Used的缩写,意思是最近最少使用,它是一种Cache替换算法。 什么是Cache?狭义的Cache指的是位于CPU和主存间的快速RAM, 通常它不像系统主存那样使用DRAM技术,而使用昂贵但较快速的SRAM技术。 广义上的Cache指的是位于速度相差较大的两种硬件之间, 用于协调两者数据传输速度差异的结构。除了CPU与主存之间有Cache, 内存与硬盘之间也有Cache,乃至在硬盘与网络之间也有某种意义上的Cache── 称为Internet临时文件夹或网络内容缓存等。

在这里插入图片描述
Cache的容量有限,因此当Cache的容量用完后,而又有新的内容需要添加进来时, 就需要挑选并舍弃原有的部分内容,从而腾出空间来放新内容。LRU Cache 的替换原则就是将最近最少使用的内容替换掉。其实,LRU译成最久未使用会更形象, 因为该算法每次替换掉的就是一段时间内最久没有使用过的内容。

2. LRU Cache的实现

实现LRU Cache的方法和思路有很多,但是要保持高效实现O(1)的put和get,那么使用双向链表和哈希表的搭配是最高效的。使用双向链表时因为双向链表可以实现任意位置O(1)的插入和删除,使用哈希表是因为哈希表的增删查改也是O(1)

在这里插入图片描述

3. oj题实现

https://leetcode-cn.com/problems/lru-cache/
在这里插入图片描述
说明:
想要查找和更新达到O1,可以使用map。每访问一次就要改变数据顺序,头尾操作O1的可以用链表。map用key索引,value存储链表中的位置迭代器。就可以查找和更新做到O1,同时,删除时需要两个容器同时操作,从链表中取到要删除的元素的key,在map中就可以找到删除的元素。所以链表需要存储key和value的键值对,map用key索引,value是链表的迭代器

链表的splice函数挪动元素位置

#pragma once
#include <unordered_map>
#include <list>

class LRUCache {
public:
    LRUCache(int capacity) 
    : _capacity(capacity)
    {

    }

    int get(int key) 
    {
        auto ret = _hashmap.find(key);
        if (ret != _hashmap.end())
        {
            // 更新key对应值的位置
            // 1. erase+push_front 更新迭代器, 原迭代器失效
            // 2. splice 转移节点
            LtIter it = ret->second;
            _lru_list.splice(_lru_list.begin(), _lru_list, it);

            return it->second;
        }
        else
        {
            return -1;
        }
    }

    void put(int key, int value) 
    {
        auto ret = _hashmap.find(key);
        if (ret == _hashmap.end())
        {
            // 插入数据
            // 满了, 先删除LRU的数据
            if (_capacity == _hashmap.size())
            {
                auto it = _lru_list.back();
                _hashmap.erase(it.first);
                _lru_list.pop_back();
            }

            _lru_list.push_front(std::make_pair(key, value));
            _hashmap[key] = _lru_list.begin();
        }
        else
        {
            // 更新数据
            // 更新key对应的位置
            LtIter it = ret->second;
            it->second = value; // 更新

            // 1. erase+push_front 更新迭代器, 原迭代器失效
            // 2. splice 转移节点
            _lru_list.splice(_lru_list.begin(), _lru_list, it);
        }
    }

private:
    typedef std::list<std::pair<int, int>>::iterator LtIter;

    size_t _capacity;
    // 做到 查找更新是O(1)
    std::unordered_map<int, LtIter> _hashmap;
    // 假设尾部是最少用的
    std::list<std::pair<int, int>> _lru_list;
};

LRU Cache是一种常见的缓存淘汰策略,LRU代表最近最少使用。在Java中,可以使用不同的方式来实现LRU Cache。 引用\[1\]中的代码展示了一种自定义的LRU Cache实现,使用了一个自定义的LRUCache类,并在main方法中进行了测试。在这个实现中,LRUCache类继承了LinkedHashMap,并重写了removeEldestEntry方法来实现缓存的淘汰策略。 引用\[2\]中的代码展示了另一种自定义的LRU Cache实现,同样使用了一个自定义的LRUCache类,并在main方法中进行了测试。这个实现中,LRUCache类同样继承了LinkedHashMap,并重写了removeEldestEntry方法来实现缓存的淘汰策略。 引用\[3\]中的代码展示了使用ArrayList实现LRU Cache的方式。在这个实现中,LRUCache类使用了一个ArrayList来存储缓存数据,并通过get和put方法来操作缓存。 总结来说,LRU Cache的Java实现可以使用自定义的类继承LinkedHashMap并重写removeEldestEntry方法,或者使用ArrayList来存储缓存数据。具体的实现方式可以根据需求和偏好选择。 #### 引用[.reference_title] - *1* *2* [Java——LRUCache](https://blog.csdn.net/m0_60867520/article/details/128361042)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [LRUCache的Java实现](https://blog.csdn.net/qq_39383118/article/details/103535985)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值