【算法】LRU算法

本文详细介绍了LRU算法的工作原理,探讨了传统计数器方法的局限性,并提出使用哈希表和双向链表的结合方式提高效率,特别是通过循环链表和deque实现的版本,以减少资源消耗和提升查找速度。
摘要由CSDN通过智能技术生成

LRU算法

LRU(Least Recently Used) 即最近最少使用,属于典型的内存淘汰机制。

根据数据的历史访问记录来进行淘汰数据,其核心思想是“如果数据最近被访问过,那么将来被访问的几率也更高”,其思路如下图所示:

img

该算法需要达到两个目的:①可以轻易的更新最新的访问数据。②轻易的找出最近最少未使用的数据。所以要用到哈希表+双向链表实现。利用map,获取key对应的value是O(1),利用双向链表,实现新增和删除都是O(1)。

传统意义的LRU算法是为每一个Cache对象设置一个计数器,每次Cache命中则给计数器+1,而Cache用完,需要淘汰旧内容,放置新内容时,就查看所有的计数器,并将最少使用的内容替换掉。它的弊端很明显,如果Cache的数量少,问题不会很大, 但是如果Cache的空间过大,达到10W或者100W以上,一旦需要淘汰,则需要遍历所有计数器,其性能与资源消耗是巨大的。效率也就非常的慢了。双链表LRU的原理: 将Cache的所有位置都用双链表连接起来,当一个位置被命中之后,就将通过调整链表的指向,将该位置调整到链表头的位置,新加入的Cache直接加到链表头中。 这样,在多次进行Cache操作后,最近被命中的,就会被向链表头方向移动,而没有命中的,则向链表后面移动,链表尾则表示最近最少使用的Cache。当需要替换内容时候,链表的最后位置就是最少被命中的位置,我们只需要淘汰链表最后的部分即可。

LRU数据结构如下图:

HashLinkedList

根据上图我们可以分析一下:

  1. 如果我们每次默认从链表尾部添加元素,那么显然越靠尾部的元素就是最近使用的,越靠头部的元素就是最久未使用的。
  2. 对于某一个 key,我们可以通过哈希表快速定位到链表中的节点,从而取得对应 val
  3. 链表显然是支持在任意位置快速插入和删除的,改改指针就行。只不过传统的链表无法按照索引快速访问某一个位置的元素,而这里借助哈希表,可以通过 key 快速映射到任意一个链表节点,然后进行插入和删除。
  • 版本1:自己实现循环链表存储,没有用API

    /********************不用API的版本*************************/
    /********************简单说一下思路*************************/
    //1.首先hash表用的是unordered_map来实现,用来查找key对应的node节点,所以hash表应该是[key,node]形式存储
    //2.LRUCache这个类实现双向链表的添加,删除,更新和遍历
    //3.同时这个类还要实现get和put两个功能
    //4.我这里用的是循环双向链表,因此查找链表尾端的元素为O(1),正常的双向链表是O(n)
    //总结:最重要的就是hash表中的key对应的不是int而是一个node节点,这个要记住
    #include<unordered_map>
    #include<iostream>
    struct Node{
        int key;
        int value;
        Node* pre;
        Node* next;
        Node(){}
        Node(int k, int v):key(k), value(v), pre(nullptr), next(nullptr){}
    };
    
    class LRUCache{
    private:
        //通过key可以找到位于链表中的节点
        std::unordered_map<int, Node*> hash;
        int capacity;
        Node* head_node;
    public:
        LRUCache(int cap){
            capacity = cap;
            head_node = new Node();
            //初始化dummy_Node,next和pre都指向自己
            head_node->next = head_node->pre = head_node;
        }
        //将新来的插入双向链表头部
        void add_Node(Node* n);
        //将某个节点拿出来重新插入头部
        void update_Node(Node* n);
        //移除链表中最后一个(最久未使用)
        void pop_back();
        //输出LRU结构
        void show();
        int get(int key);
        void put(int key, int value);
    };
    
    //注意,该节点可能是新节点,也可能是已经存在的有重新入链表的节点
    void LRUCache::add_Node(Node* n){
        //表示当前节点n就是dummy的next节点,不用加入
        if(n->pre == head_node){
            return;
        }
        //将节点n插入head_node后面
        n->pre = head_node;
        n->next = head_node->next;
        head_node->next->pre = n;
        head_node->next = n;
    }
    
    void LRUCache::update_Node(Node* n){
        //表示当前节点n就是dummy的next节点,不用断掉
        if(n->pre == head_node){
            return;
        }
        n->next->pre = n->pre;
        n->pre->next = n->next;
        add_Node(n);
    }
    
    //弹出链表的最后一个,由于是循环链表,就是head_node->pre
    void LRUCache::pop_back(){
        Node* tmp = head_node->pre;
        head_node->pre = tmp->pre;
        tmp->pre->next = head_node;
        //删除unordered_map中的key
        hash.erase(tmp->key);
    }
    
    void LRUCache::show(){
        //链表中没有节点,退出
        if(head_node->next = head_node){
            return;
        }
        Node* tmp = head_node->next;
        while(tmp->next != head_node){
            std::cout<<"key:"<<tmp->key<<",vlaue:"<<tmp->value<<std::endl;
        }
    }
    int LRUCache::get(int key){
        auto it = hash.find(key);
        if(it == hash.end()){
            std::cout<<"there is no key"<<std::endl;
            return -1;
        }
        //取出key对应的node节点
        Node* node = it->second;
        update_Node(node);
        return node->value;
    
    }
    void LRUCache::put(int key, int value){
        auto it = hash.find(key);
        if(it == hash.end()){
            Node* node = new Node(key, value);
            add_Node(node);
            hash.insert({key, node});
            if(hash.size() > capacity){
                
                pop_back();
            }
        }else{
            it->second->value = value;
            update_Node(it->second);
        }
    }
    
  • 版本2:使用deque,为什么使用deque说的很清楚

    /****************注意unordered_map的插入************/
    
    #include <iostream>
    #include <deque>
    #include <unordered_map>
    #include <list>
    
    class LRUCache{
    private:
        int capacity;
        //1.之所以用deque不用list是因为移除尾部元素的时候,deque方便
        //2.deque里面可以存储自定的node类型,也可以用pair表示,这里我用pair了
        std::deque<std::pair<int, int>> my_deque;
        //通过key找到对应key在deque中的位置
        std::unordered_map<int, std::deque<std::pair<int, int>>::iterator> hash;
    public:
        LRUCache(int cap):capacity(cap){}
        int get(int key);
        void put(int key, int value);
    };
    
    int LRUCache::get(int key){
        if(hash.find(key) == hash.end()){
            std::cout<<"there is no key"<<std::endl;
            return -1;
        }
        std::pair<int, int> tmp = *hash[key];
        my_deque.erase(hash[key]);
        my_deque.push_front(tmp);
        //更新hash表中对应key位于deque的位置
        hash[key] = my_deque.begin();
        return tmp.second;
    }
    
    void LRUCache::put(int key, int value){
        if(hash.find(key) == hash.end()){
            if(my_deque.size() >= capacity){
                //把hash表中的抹除,然后删除deque中的
                auto it = my_deque.back();
                hash.erase(it.first);
                my_deque.pop_back();
                my_deque.push_front({key, value});
                hash.insert({key, my_deque.begin()});
            }else{
                my_deque.push_front({key, value});
                hash.insert({key, my_deque.begin()});
            }
        }else{
            //更新就行
            my_deque.erase(hash[key]);
            my_deque.push_front({key, value});
            //更新hash表中key的位置
            hash[key] = my_deque.begin();
        }
    }
    
  • 8
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
FIFO (First-In-First-Out) 算法LRU (Least Recently Used) 算法都是计算机科学中用于缓存管理和淘汰策略的常用算法。 **FIFO算法**: FIFO 是一种“先进先出”(First In, First Out)的策略。在这种情况下,当缓存满时,新插入的数据会替换掉最早进入缓存的数据。这是最直观的缓存淘汰策略,因为最先到达的数据如果有访问需求,但又被新的数据挤出,可能会导致数据丢失或访问延迟。 **LRU算法**: LRU 则是“最近最少使用”(Least Recently Used)的策略。当缓存已满且需要添加新数据时,会选择最近最少使用的数据进行淘汰,即最近一段时间内没有被访问过的数据。这种策略假设如果一个数据不再被频繁访问,那么在未来可能也不太需要,所以倾向于保持最近活跃的数据。 **主要区别**: 1. **淘汰依据**:FIFO 依据数据的进入时间,而 LRU 依据数据的访问时间。 2. **预测能力**:LRU 更具有前瞻性,因为它考虑了数据的最近使用情况,认为“最近没用的将来也可能不会用”,而 FIFO 则更依赖历史记录。 3. **实现复杂度**:FIFO 实现相对简单,只需要维护一个队列即可;LRU 的实现相对复杂,通常需要额外的数据结构如哈希表和双向链表,以便快速找到最近最少使用的元素。 **相关问题--:** 1. 在什么场景下,FIFO 算法更适合使用? 2. LRU 算法则适用于哪些类型的应用? 3. 当内存资源有限时,选择 LRU 还是 FIFO,哪种策略效率更高?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值