数据分表算法之TimedHash

数据分库分表算法之TimedHash


TimedHash 顾明意思,就是时间片上的一致性hash算法。在介绍此算法之前我们先来介绍一下一致性hash算法。

hash算法产生
一致性哈希算法是分布式系统中常用的算法。比如,一个分布式的存储系统,要将数据存储到具体的节点上,如果采用普通的hash方法,将数据映射到具体的节点上,如key%N,key是数据的key,N是机器节点数,如果有一个机器加入或退出这个集群,则所有的数据映射都无效了,如果是持久化存储则要做数据迁移,如果是分布式缓存,则其他缓存就失效了。
因此,引入了一致性哈希算法:
1
把数据用hash函数(如MD5),映射到一个很大的空间里,如图所示。数据的存储时,先得到一个hash值,对应到这个环中的每个位置,如k1对应到了图中所示的位置,然后沿顺时针找到一个机器节点B,将k1存储到B这个节点中。
如果B节点宕机了,则B上的数据就会落到C节点上,如下图所示:
图2

这样,只会影响C节点,对其他的节点A,D的数据不会造成影响。然而,这又会造成一个“雪崩”的情况,即C节点由于承担了B节点的数据,所以C节点的负载会变高,C节点很容易也宕机,这样依次下去,这样造成整个集群都挂了。
为此,引入了“虚拟节点”的概念:即把想象在这个环上有很多“虚拟节点”,数据的存储是沿着环的顺时针方向找一个虚拟节点,每个虚拟节点都会关联到一个真实节点,如下图所使用:
在这里插入图片描述
虽然一致性hash算法可以做到数据的分布,一定程度上也可以解决高可用避免造成“雪崩”情况。但是此方法热心的朋友会发现,如果当我们增加新的节点E(虚拟节点E1,E2)的时候,部分数据会出现迁移。
如图:
在这里插入图片描述
未增加节点之前数据K6应该落在D1节点,K1落在C2节点。当增加节点E后,K1落在了E1节点,K6落在E2节点。虽然一直性hash算法减少了数据迁移的量,如果我们使用热部署方式去增加节点的时候,当增加了节点数据并不能及时迁移,造成了数据异常。
那么我们有没有什么办法可以解决在迁移这段时间内,数据依然可以访问之前节点获取数据,当数据迁移完毕后再访问新节点呢?

如果我们可以设计hash算法在不同时间的算法,那么此问题不就解决了吗。对于K1-K8都是在E节点添加之前的数据,那么在我们计算K8的数据落点时候排除E节点,那么数据K6依然落在D1节点,K1依然落在C2节点。
对于新进入的数据K9,我们使用A-E节点计算。我们就可以热部署增加节点了。
如图。
在这里插入图片描述

当然使用此方法会存在一些限制。

1、我们需要每个数据存储节点加入时间。
2、我们所需要查找的数据的落地时间。

那么我们该如何符合者连个限制呢?
1、通常我们存放数据的时候需要拉去数据存储节点的信息,我们只需要把加入时间加入信息中即可,这样我们的使用方即可拉去存储节点的加入时间。
2、我们每次查找的数据,可以使用 snowflake 方式或者此算法的变种来设计数据的ID,这样我们就能知道查找数据的ID。有关twitter snowflake算法可以查阅地址 https://github.com/twitter-archive/snowflake 获取更多资料

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值