分布式缓存系统Memcached


原文:http://wenku.baidu.com/view/8686d46c7e21af45b307a8c3.html


什么是Memcached

许多Web 应用程序都将 数据保存到RDBMS中, 应用服务器从中读取数据并在浏览器 中显示 。但随着数据量的增大,访问的集中,就会出现REBMS的负担加重,数据库响应恶化,网站显示延迟等重大影响。Memcached是高 性能的分布式内存缓存服务器 。一般的使用目的是通过缓存数据库查询结果 ,减少数据库的访问次数 ,以提高动态 Web 应用的速度、提高扩展性。如图:

  分布式缓存-Memcached

Memcached作为高速运行的分布式缓存服务器具有以下特点。

  • 协议简单:memcached的服务器客户端通信并不使用复杂的MXL等格式,而是使用简单的基于文本的协议。
  • 基于libevent的事件处理:libevent是个程序库,他将Linux 的epoll、BSD类操作系统的kqueue等时间处理功能封装成统一的接口。memcached使用这个libevent库,因此能在Linux、BSD、Solaris等操作系统上发挥其高性能。
  • 内置内存存储方式:为了提高性能,memcached中保存的数据都存储在memcached内置的内存存储空间中。由于数据仅存在于内存中,因此重启memcached,重启操作系统会导致全部数据消失。另外,内容容量达到指定的值之后memcached回自动删除不适用的缓存。
  • Memcached不互通信的分布式:memcached尽管是“分布式”缓存服务器,但服务器端并没有分布式功能。各个memcached不会互相通信以共享信息。他的分布式主要是通过客户端实现的。

Memcached的内存管理
     
最近的memcached默认情况下采用了名 为Slab Allocatoion的机制分配 ,管理内存。在改机制出现以前,内存的分配是通过对所有记录简单地进行malloc和free来进行的。 但是这中方式会导致内存碎片,加重操作系统内存管理器的负担。

Slab Allocator的基本原理是按照预先规定的大 小,将分配的内存分割成特定长度的块,已完全解决内存碎片问题。Slab Allocation   的原理相当简单 。将分配的内存分割成各种尺寸 的块(chucnk),并把尺寸相同的块分成组(chucnk的集合)如图:

分布式缓存-Memcached

而且slab allocator 还有重复使用已分配内存的目的。也就是说,分配到的内存不会释放,而是重复利用。

Slab Allocation 的主要术语
  •     Page :分配给Slab 的内存空间,默认是1MB。分配给Slab 之后根据slab 的大小切分成chunk.
  •     Chunk : 用于缓存记录的内存空间。
  •     Slab Class:特定大小的chunk 的组。

在Slab 中缓存记录的原理

Memcached根据收到的数据的大小,选择最合适数据大小的Slab (图2) memcached中保存着slab内空闲chunk的列表,根据该列表选择chunk,然后将数据缓存于其中。
 
分布式缓存-Memcached

Memcached在数据删除方面有效里利用资源
     
Memcached删除数据时数据不会真正从memcached中消 失。Memcached不会释放已分配的 内存。记录超时后,客户端就无法再看见该记录 (invisible 透明),其存储空间即可重复使用。

Lazy Expriationmemcached内部不会监视记录是否过期,而是在get时查看记录的时间戳,检查记录是否过期。这种技术称为lazy expiratio n.因此memcached不会再过期监视上耗费CPU 时间。

对于缓存存储容量满的情况下的删除需要考虑多种机制,一方面是按队列机制,一方面应该对应缓存对象本身的优先级,根据缓存对象的优先级进行对象的删除。

LRU:从缓存中有效删除数据的原理
     
Memcached会优先使用已超时的记录空间 ,但即使如此,也会发生追加新纪录时空间不足的情况 。此时就要使用名为L east Recently Used (LRU)机制来分配空间。 这就是删除最少使用的记录的机制。因此当memcached的内存空间不足时(无 法从slab class)获取到新空间时,就从最近未使用的记录中搜索, 并将空间分配给新的记录。

Memcached分布式

Memcached虽然称为“分布式“缓存服务器,但服务器端并没有“分布式”的功能。Memcached的分布式完全是有客户端实现的。现在我们就看一下memcached是怎么实现分布式缓存的。

例如下面假设memcached服务器有node1~node3三台,应用程序要保存键名为 “tokyo”“kanagawa”“chiba”“saitama”“gunma” 的数据。
 
首先向memcached中添加“tokyo”。将“tokyo”传给客户端程序库后,客户端实现的算法就会根据“键”来决定保 存数据的memcached服务 器。服务器选定后,即命令它保存“tokyo”及其值。
 
同样,“kanagawa”“chiba”“saitama”“gu nma”都是先选择服务器再保存。

接下来获取保存的数据。获取时也要将要获取的键 “tokyo”传递给函数库 。函数库通过与数据保存时相同的 算法,根据“键”选择服务器。使用的算法相同,就能选中与保存时相同的服务器 ,然后发送get命令。只要数据没有因为某些原因被删除,就能获得保存的值。
  分布式缓存-Memcached
这样,将不同的键保存到不同的服务器上,就实现了memcached的分布式。 memcached服务器增多后,键就会分散,即使一台memcached服务器发生故障无法连接,也不会影响其他的缓存,系统依然能继续运行。

Memcached的缓存分布策略 http://blog.csdn.net/bintime/article/details/6259133

Consistent Hashing的简单说明

Consistent Hashing如下所示:首先求出memcached服务器(节点)的哈希值, 并将其配置到0~232的圆(continuum)上。 然后用同样的方法求出存储数据的键的哈希值,并映射到圆上。 然后从数据映射到的位置开始顺时针查找,将数据保存到找到的第一个服务器上。 如果超过232仍然找不到服务器,就会保存到第一台 memcached服务器上。

分布式缓存-Memcached

从上图的状态中添加一台memcach ed服务 器。余数分布式算法由于保存键的服务器会发生巨大变化 而影响缓存的命中率,但Consistent Hashing ,只有在continuum上增加服务器的地点逆时针方向的 第一台 服务器上的键会受到影响。

分布式缓存-Memcached

因此,Consistent Hashing最大限度地抑制了键的重新分布。  而且,有的Consistent Hashing的实现方法还采用 了虚拟节点的思想。 使用一般的hash函数的话,服务器的映射地点的分布非常不均 匀。 因此,使用虚拟节点的思想,为每个物理节点(服务器) 在continuum上分配100~200个点。这样就能抑制分布不均匀, 最大限度地减小服务器增减时的缓存重新分布。

缓存多副本

缓存多副本主要是用于在缓存数据存放时存储缓存数据的多个 副本,以防止缓存失效。缓存失效发生在以下几种情况:
  • 1.    缓存超时被移除(正常失效)
  • 2.    缓存由于存储空间限制被移除(异常失效)
  • 3.    由于缓存节点变化而导致的缓存失效(异常失效)

在缓存多副本的情况下,需要重新考虑缓存的分布式分布策略。其次缓存的多个副本实际本身是可能的多个读的节点,可以做为分布式的并行读,这是另外一个可以考虑的问 题。

缓存数据的一致性问题

缓存数据尽量只读,因此缓存本身是不适合大量写和更新操作的数据场景的 。对于读的情况下,如果存在数据变化,一种是同时更新缓存和数据 库。一种是直接对缓存数据进行失效处理。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值