浅谈一致性HASH

在实际开发中,我们经常会用到hash算法来分散分布数据到几个节点上(数据库分片或者服务器请求等等),但是在添加节点到时候就很可能导致大规模到数据迁移。

接下来开始话糙理不糙的讲解,形式不重要,重在领会精神:

传统hash取模示例如下

10条数据,3个节点:
节点1:0,3,6,9
节点2:1,4,7
节点3:2,5,8

这个时候添加一个节点4:
节点1:0,4,8
节点2:1,5,9
节点3:2,6
节点4:3,7

可以看出此时数据发生大规模到迁移变化,这在企业中实践成本是很大的。

一致性HASH

最关键的区别就是,对节点和数据,都做一次哈希运算,然后比较节点和数据的哈希值,数据取和节点最相近的节点做为存放节点。这样就保证当节点增加或者减少的时候,影响的数据最少。

还是拿刚刚的例子,(用简单的字符串的ascii码做哈希key):
0:192

1:196

2:200

3:204

4:208

5:212

6:216

7:220

8:224

9:228

有三个节点,算出各自的哈希值

node a: 203

node g: 209

node z: 228

这个时候比较两者的哈希值,如果大于228,就归到前面的203,相当于整个哈希值就是一个环,对应的映射结果:

node a: 0,1,2

node g: 3,4

node z: 5,6,7,8,9

这个时候加入node n, 就可以算出node n的哈希值:

node n: 216

这个时候对应的数据就会做迁移:

node a: 0,1,2

node g: 3,4

node n: 5,6

node z: 7,8,9

这个时候只有5和6需要做迁移

另外,这个时候如果只算出三个哈希值,那再跟数据的哈希值比较的时候,很容易分得不均衡,因此就引入了虚拟节点的概念,通过把三个节点加上ID后缀等方式,每个节点算出n个哈希值,均匀的放在哈希环上,这样对于数据算出的哈希值,能够比较散列的分布(详见下面代码中的replica)

通过这种算法做数据分布,在增减节点的时候,可以大大减少数据的迁移规模。

转载自此篇博客三分钟看懂一致性哈希算法

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值