一致性哈希算法

文章探讨了一致性哈希算法在分布式系统中的应用,如何通过减少数据迁移量来提高容错性和可扩展性,以及如何通过虚拟节点解决数据倾斜问题。文中提到了Gossip、QuorumNWR和PoW等算法,并比较了它们在性能和复杂度上的特点。
摘要由CSDN通过智能技术生成

分布式协议系列文章目录

  1. 拜占庭将军问题
  2. 一致性哈希算法
  3. Gossip,流言蜚语传播协议
  4. Quorum NWR算法,鱼和熊掌也可兼得
  5. PoW算法,请出示你的证明

一致性哈希算法


  在分布式领域中各技术组件都有实现KV形式的存储,在实现各类工作能力的同时还简化了算法实现。以Raft分布式协议为例,它通过在领导者采用KV存储来简化算法实现和共识协商,但同时也限制所有写请求只能在领导者节点上进行处理,从而导致集群退化为单机模式。

  没有什么是加一个中间层解决不了的问题,那么有那就再加一层。为实现既要又要的目的,可以通过分集群来突破单集群的性能限制,然后再各集群节点和客户端之间加一个哈希代理层进行路由。

简单的哈希算法

公式:m = hash(o) mod n
o:需要被哈希函数作用的对象值
n:集群中节点的个数

  假设集群中有A、B和C三个节点、对象值为1到10十个数据,经过简单哈希函数公式m = hash(o) mod n计算后得:

节点数据
节点A3、6、9
节点B1、4、7、10
节点C2、5、8

  如果增加一个D节点,那么此时公式中的n就由3变成了4。上述十个数据就得重新代入哈希函数计算一个新值,计算后得:

节点数据
节点A4、8
节点B1、5、9
节点C2、6、10
节点D3、7

  对比两组数据发现只有1和2经过哈希函数重新计算后没有被移动,当前还只有十个数据,如果当集群中数据量很大是,那么每次扩容和缩容带来的数据迁移成本可谓是相当巨大,更有甚者会导致宕机,由此可以使用一致性哈希来解决数据迁移成本高的问题。

一致性哈希算法

  一致性哈希算法是1997年发布的《Consistent Hashing and Random Trees》论文中提出的,使用此算法可以大幅度减少数据迁移量,它可以保证在进行扩容和缩容时,节点之间的数据迁移只限于两个节点之间,不会像上述简单的哈希函数那样造成大规模的数据迁移。

哈希环

  一致性哈希算法也用了取模运算,与普通哈希算法直接对节点的数量进行取模运算有所不同,一致性哈希算法是对232进行取模运算。即将数据映射到0~(232-1)的数字空间,将这些数字头尾相连可以组织成一个虚拟的圆环,也就是哈希环:
image.png
  上图所示哈希环的空间是按顺时针方向组织的,圆环的正上方的点代表原点0,0 点右侧的第一个点代表 1,以此类推,2、3、4、5、6……直到232-1,即0点左侧的第一个点代表232-1。

映射节点到哈希环

  在一致性哈希算法中,可以通过执行自定义的哈希算法将节点映射到哈希环上,那么每个节点就能确定其在哈希环上的位置了:
image.png

映射数据到哈希环

  同理执行自定义的哈希算法计算出每个数据对应的key值,然后散列到哈希环上,hash(o1) = key1、hash(o2) = key2、hash(o3) = key3、hash(o4) = key4:
image.png

存储数据到节点

  将节点和数据都映射到同一个哈希环上之后,然后以原点0为起点顺时针转动,在转动过程中数据遇到的第一个节点就是该数据的归属,然后读写数据的时候就可以按照此到对应的节点上去寻找。

节点数据
节点Akey1、key4
节点Bkey2
节点Ckey3

扩容和缩容

扩容

  扩容即向集群中增加一个节点D,节点D经过上述同样自定义的哈希函数后计算后,然后将其映射到哈希环上,如下图所示。
image.png
  此时再根据顺时针存储的规则进行数据迁移:

节点数据
节点Akey1
节点Bkey2
节点Ckey3
节点Dkey4

  扩容之后发现只有key4从之前的节点A迁移到了节点D上,数据的移动仅发生在节点A和节点D之间,其他节点上的数据并未受到影响。

缩容

  缩容即向集群中减少一个节点C,先将节点C从哈希环上移除,然后再根据顺时针存储的规则进行数据的迁移:
image.png

节点数据
节点Akey1、key3、key4
节点Bkey2

  缩容之后发现只是将节点C的所属的数据迁移到了节点A上,其他数据并未受到影响。
  总的来说,使用了一致性哈希算法后,扩容或缩容的时候,都只需要重定位哈希环中的一小部分数据。也就是说,一致性哈希算法具有较好的容错性和可扩展性。

复杂度

  假设总数据条数是M,节点个数是N。

哈希函数时间复杂度
  • 传统哈希算法,以N为基数执行取模运算,时间复杂度为O(1)。
  • 一致性哈希算法,首先将关键字先转换为 32 位整型,然后采用二分法(所有节点在哈希环上是有序排列的)确定节点在哈希环上的处理范围,综合时间复杂度为O(logN) 。
数据迁移规模
  • 传统哈希算法,因为节点变化需要迁移的数据规模是不可控的,所以综合数据迁移规模为O(M)。
  • 一致性哈希算法,哈希环中各节点均匀分布的情况下,数据迁移规模为O(M/N)。

  综上数据条数 M 远大于主机节点数 N,而且数据迁移的成本很大,所以一致性哈希算法更划算。

数据倾斜

  一致性哈希算法虽然降低了数据的迁移量,但是也存在两个数据倾斜的问题

  1. 如果映射后哈希环中的数字分布不均匀,就会导致各节点处理的数据不均衡、各节点的负载不均衡。
  2. 容灾和扩容时哈希环上相邻节点会受到极大影响,极端情况下,假如节点A出现故障,存储在A上的数据要全部转移到B上,大量的数据导可能会导致节点B的崩溃,之后A和B上所有的数据向节点C迁移,导致节点C也崩溃,由此导致整个集群宕机,产生雪崩效应。
虚拟节点

  想要解决数据倾斜的问题,一来可以让集群中的节点尽可能的多,从而让各个节点均匀的分布在哈希空间中。但是在生产环境中机器的数量往往都是固定的,所以我们只能在物理节点和哈希环之间再加一层虚拟节点层。

  假如集群中有4个节点,首先不是直接将哈希环分为4份,而是将均分地分为32份,每份对应一个虚拟节点共32个虚拟节点;然后再将这32个虚拟节点映射到4个物理节点上。
image.png
  设置虚拟节点层后,为异构的服务器节点设置权重也更方便。只需要为权重高的真实节点,赋予更多的虚拟节点即可。虽然虚拟节点增多可以提升均衡性,但是也会消耗更多的内存与计算力。

  • 7
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

乐只乐之

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值