LruCache的代码实现,以及分析

LruCache的代码实现以及分析

简介

作为存储数据、获取数据的服务,LruCache被大量的广泛使用。例如,我们在redis、mongodb种存储海量的数据,应用服务通过api通过网络进行存取,但是由于二八原则,我们大多数情况下,获取的都是相同的一批数据,所以这个时候可以在服务内存创建LruCache将数据进行缓存。

原理

  1. 当数据请求到来的时候,首先访问内存的cache,如果内存中没有,则通过网络远程访问存储。
  2. 获取数据后,将数据写入到缓存中,同时在list中更新位置到队列的同步;
  3. 如果cache中找到的话,返回用户数据,然后同时更新数据在list中的位置。

源代码

#include <unordered_map>
#include <string>
#include <list>

using namespace std;

class LRUCache
{
	public:
		struct CacheEntry
		{
			public:
				int key;
				int value;
				CacheEntry(int k, int v) :key(k), value(v) {}
		};

		LRUCache(int capacity) {
			m_capacity = capacity;
		}
		
		int get(int key) {
			if (m_map.find(key) == m_map.end())
				return -1;

			MoveToHead(key);
			return m_map[key]->value;
		}

		void put(int key, int value) 
		{
			if (m_map.find(key) == m_map.end()){
				CacheEntry newItem(key, value);
				if (m_LRU_cache.size() >= m_capacity)
				{
					//remove from tail
					m_map.erase(m_LRU_cache.back().key);
					m_LRU_cache.pop_back();                
				}
				// insert in head.
				m_LRU_cache.push_front(newItem);
				m_map[key] = m_LRU_cache.begin();
				return;
			}
		 	m_map[key]->value = value;
			MoveToHead(key);
	  }

	private:
		unordered_map<int, list<CacheEntry>::iterator> m_map;
		list<CacheEntry> m_LRU_cache;
		int m_capacity;

		void MoveToHead(int key) 
		{
			//Move key from current location to head
			auto updateEntry = *m_map[key];
			m_LRU_cache.erase(m_map[key]);
			m_LRU_cache.push_front(updateEntry);
			m_map[key] = m_LRU_cache.begin();
	}
 };

int main(int argc, char ** argb)
{
    LRUCache* obj = new LRUCache(2);
    obj->put(1,1);
    obj->get(1);
    return 0;
}

优化点

  • cache基于lru,如果每条数据在远程存储已经修改,但是在cache中由于反复使用,所以一直无法更新;解决办法:给cache设置个超时时间;
  • 同步锁:在多线程的情况下,锁的冲突会很大,这个时候需要考虑使用多个锁来降低锁的冲突。
  • 锁的粒度:如果缓存的数据比较大,那么锁的配置就比较重要,首先是锁的选型,因为都是短暂的操作的,所以考虑自旋锁,另外可以考虑段锁的方式。

总结

本文介绍了一个非常简单的lru的实现,有兴趣的读者可以自己扩展,推荐看下Memcache和Redis的实现,一个是多线程一个是单线程,都是比较好的工业级缓存,另外还有一个重要的问题就是如何做Rehash,这个就留给读者自己去思考了。

自我介绍

个人介绍:杜宝坤,京东联邦学习从0到1构建者,带领团队构建了京东的联邦学习解决方案,实现了电商营销领域支持超大规模的工业化联邦学习解决方案,支持超大规模样本PSI隐私对齐、安全的树模型与神经网络模型等众多模型,建模不受限,同时带领团队实现了业务侧的落地,开创了新的业务增长点,产生了显著的业务经济效益。

个人喜欢研究技术。基于从全链路思考与决策技术规划的考量,研究的领域比较多,从架构、大数据到机器学习算法与框架均有涉及。欢迎喜欢技术的同学和我交流,邮箱:baokun06@163.com

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值