memcached的分布式算法

memcached全面剖析 –4. memcached的分布式算法

发表日:2008/7/23
作者:长野雅广(Masahiro Nagano)
原文链接:http://gihyo.jp/dev/feature/01/memcached/0004

前几次的文章在这里:

·         1 次: http://tech.idv2.com/2008/07/10/memcached-001/

·         2 次: http://tech.idv2.com/2008/07/11/memcached-002/

·         3 次: http://tech.idv2.com/2008/07/16/memcached-003/

我是Mixi 的长野。 第2 第3 由前坂介绍了memcached 的内部情况。本次不再介绍memcached 的内部结构, 开始介绍memcached 的分布式。

 

·         memcached的分布式

o    memcached的分布式是什么意思?

·         Cache::Memcached的分布式方法

o    根据余数计算分散

o    根据余数计算分散的缺点

·         Consistent Hashing

o    Consistent Hashing的简单说明

o    支持 Consistent Hashing的函数库

·         总结

memcached 的分布式

正如第1 中介绍的那样, memcached 虽然称为 分布式 缓存服务器,但服务器端并没有 分布式 功能。 服务器端仅包括 第2 第3 前坂介绍的内存存储功能,其实现非常简单。 至于memcached 的分布式,则是完全由客户端程序库实现的。 这种分布式是memcached 的最大特点。

memcached 的分布式是什么意思?

这里多次使用了 分布式 这个词,但并未做详细解释。 现在开始简单地介绍一下其原理,各个客户端的实现基本相同。

下面假设memcached 服务器有node1node3 三台, 应用程序要保存键名为“tokyo”“kanagawa”“chiba”“saitama”“gunma” 的数据。

memcached-0004-01.png

1 分布式简介:准备

首先向memcached 中添加“tokyo” 。将“tokyo” 传给客户端程序库后, 客户端实现的算法就会根据 来决定保存数据的memcached 服务器。 服务器选定后,即命令它保存“tokyo” 及其值。

memcached-0004-02.png

2 分布式简介:添加时

同样,“kanagawa”“chiba”“saitama”“gunma” 都是先选择服务器再保存。

接下来获取保存的数据。获取时也要将要获取的键“tokyo” 传递给函数库。 函数库通过与数据保存时相同的算法,根据 选择服务器。 使用的算法相同,就能选中与保存时相同的服务器,然后发送get 命令。 只要数据没有因为某些原因被删除,就能获得保存的值。

memcached-0004-03.png

3 分布式简介:获取时

这样,将不同的键保存到不同的服务器上,就实现了memcached 的分布式。 memcached 服务器增多后,键就会分散,即使一台memcached 服务器发生故障 无法连接,也不会影响其他的缓存,系统依然能继续运行。

接下来介绍第1 中提到的Perl 客户端函数库Cache::Memcached 实现的分布式方法。

Cache::Memcached 的分布式方法

Perl memcached 客户端函数库Cache::Memcached memcached 的作者Brad Fitzpatrick 的作品,可以说是原装的函数库了。

·         Cache::Memcached - search.cpan.org

该函数库实现了分布式功能,是memcached 标准的分布式方法。

根据余数计算分散

Cache::Memcached 的分布式方法简单来说,就是 根据服务器台数的余数进行分散 。 求得键的整数哈希值,再除以服务器台数,根据其余数来选择服务器。

下面将Cache::Memcached 简化成以下的Perl 脚本来进行说明。

use strict;


use warnings;


use String::CRC32;


 


my @nodes = ('node1','node2','node3');


my @keys = ('tokyo', 'kanagawa', 'chiba', 'saitama', 'gunma');


 


foreach my $key (@keys) {


    
my $crc = crc32($key);             
# CRC




    
my $mod = $crc % ( $#nodes + 1 );


    
my $server = $nodes[ $mod ];       
# 


根据余数选择服务器

    
printf "%s => %s/n", $key, $server;


}


Cache::Memcached 在求哈希值时使用了CRC

·         String::CRC32 - search.cpan.org

首先求得字符串的CRC 值,根据该值除以服务器节点数目得到的余数决定服务器。 上面的代码执行后输入以下结果:

tokyo       
=> node2


kanagawa => node3


chiba       
=> node2


saitama   
=> node1


gunma     
=> node1


根据该结果,“tokyo” 分散到node2“kanagawa” 分散到node3 等。 多说一句,当选择的服务器无法连接时,Cache::Memcached 会将连接次数 添加到键之后,再次计算哈希值并尝试连接。这个动作称为rehash 。 不希望rehash 时可以在生成Cache::Memcached 对象时指定“rehash => 0” 选项。

根据余数计算分散的缺点

余数计算的方法简单,数据的分散性也相当优秀,但也有其缺点。 那就是当添加或移除服务器时,缓存重组的代价相当巨大。 添加服务器后,余数就会产生巨变,这样就无法获取与保存时相同的服务器, 从而影响缓存的命中率。用Perl 写段代码来验证其代价。

use strict;


use warnings;


use String::CRC32;


 


my @nodes = @ARGV;


my @keys = ('a'..'z');


my %nodes;


 


foreach my $key ( @keys ) {


    
my $hash = crc32($key);


    
my $mod = $hash % ( $#nodes + 1 );


    
my $server = $nodes[ $mod ];


    
push @{ $nodes{ $server } }, $key;


}


 


foreach my $node ( sort keys %nodes ) {


    
printf "%s: %s/n", $node,  
join ",", @{ $nodes{$node} };


}


这段Perl 脚本演示了将“a”“z” 的键保存到memcached 并访问的情况。 将其保存为mod.pl 并执行。

首先,当服务器只有三台时:

$ mod.pl node1 node2 nod3


node1: a,c,d,e,h,j,n,u,w,x


node2: g,i,k,l,p,r,s,y


node3: b,f,m,o,q,t,v,z


结果如上,node1 保存acde……node2 保存gik…… , 每台服务器都保存了8 个到10 个数据。

接下来增加一台memcached 服务器。

$ mod.pl node1 node2 node3 node4


node1: d,f,m,o,t,v


node2: b,i,k,p,r,y


node3: e,g,l,n,u,w


node4: a,c,h,j,q,s,x,z


添加了node4 。可见,只有dikpry 命中了。像这样,添加节点后 键分散到的服务器会发生巨大变化。26 个键中只有六个在访问原来的服务器, 其他的全都移到了其他服务器。命中率降低到23% 。在Web 应用程序中使用memcached 时, 在添加memcached 服务器的瞬间缓存效率会大幅度下降,负载会集中到数据库服务器上, 有可能会发生无法提供正常服务的情况。

mixi Web 应用程序运用中也有这个问题,导致无法添加memcached 服务器。 但由于使用了新的分布式方法,现在可以轻而易举地添加memcached 服务器了。 这种分布式方法称为 Consistent Hashing

Consistent Hashing

关于Consistent Hashing 的思想,mixi 株式会社的开发blog 等许多地方都介绍过, 这里只简单地说明一下。

·         mixi Engineers' Blog - スマートな分散で快適キャッシュライフ

·         ConsistentHashing - コンシステント ハッシュ法

Consistent Hashing 的简单说明

Consistent Hashing 如下所示:首先求出memcached 服务器(节点)的哈希值, 并将其配置到0232 的圆(continuum )上。 然后用同样的方法求出存储数据的键的哈希值,并映射到圆上。 然后从数据映射到的位置开始顺时针查找,将数据保存到找到的第一个服务器上。 如果超过232 仍然找不到服务器,就会保存到第一台memcached 服务器上。

memcached-0004-04.png

4 Consistent Hashing :基本原理

从上图的状态中添加一台memcached 服务器。余数分布式算法由于保存键的服务器会发生巨大变化 而影响缓存的命中率,但Consistent Hashing 中,只有在continuum 上增加服务器的地点逆时针方向的 第一台服务器上的键会受到影响。

memcached-0004-05.png

5 Consistent Hashing :添加服务器

因此,Consistent Hashing 最大限度地抑制了键的重新分布。 而且,有的Consistent Hashing 的实现方法还采用了虚拟节点的思想。 使用一般的hash 函数的话,服务器的映射地点的分布非常不均匀。 因此,使用虚拟节点的思想,为每个物理节点(服务器) 在continuum 上分配100200 个点。这样就能抑制分布不均匀, 最大限度地减小服务器增减时的缓存重新分布。

通过下文中介绍的使用Consistent Hashing 算法的memcached 客户端函数库进行测试的结果是, 由服务器台数(n )和增加的服务器台数(m )计算增加服务器后的命中率计算公式如下:

(1 - n/(n+m)) * 100

支持 Consistent Hashing 的函数库

本连载中多次介绍的Cache::Memcached 虽然不支持Consistent Hashing , 但已有几个客户端函数库支持了这种新的分布式算法。 第一个支持Consistent Hashing 和虚拟节点的memcached 客户端函数库是 名为libketamaPHP 库,由last.fm 开发。

·         libketama - a consistent hashing algo for memcache clients – RJ ブログ - Users at Last.fm

至于Perl 客户端,连载的第1 中介绍过的Cache::Memcached::FastCache::Memcached::libmemcached 支持 Consistent Hashing

·         Cache::Memcached::Fast - search.cpan.org

·         Cache::Memcached::libmemcached - search.cpan.org

两者的接口都与Cache::Memcached 几乎相同,如果正在使用Cache::Memcached , 那么就可以方便地替换过来。Cache::Memcached::Fast 重新实现了libketama , 使用Consistent Hashing 创建对象时可以指定ketama_points 选项。

my $memcached = Cache::Memcached::Fast->new({


    
servers => ["192.168.0.1:11211","192.168.0.2:11211"],


    
ketama_points => 150


});


另外,Cache::Memcached::libmemcached 是一个使用了Brain Aker 开发的C 函数库libmemcachedPerl 模块。 libmemcached 本身支持几种分布式算法,也支持Consistent Hashing , 其Perl 绑定也支持Consistent Hashing

·         Tangent Software: libmemcached

总结

本次介绍了memcached 的分布式算法,主要有memcached 的分布式是由客户端函数库实现, 以及高效率地分散数据的Consistent Hashing 算法。下次将介绍miximemcached 应用方面的一些经验, 和相关的兼容应用程序。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值