分布式数据库稳定性资料整理

这篇文章所讲的事情

初探分布式数据库这种有状态服务是如何保证系统的高可用的,可能会有错误,欢迎指导。

正文

分布式数据库在说高可用的时候,主要是在讲宕机和网络分区时,系统的高可用如何保证,这点和我们在线上应用稳定性治理中所说的高可用有些许不同,表现在线上应用稳定性治理,需要在容量,依赖,线上变更三个维度去做系统稳定性治理,而分布式数据库的高可用,是在说线上应用稳定性治理中-依赖的细分方面:宕机和网络分区场景下如何做系统高可用,即分布式数据库所说的高可用是线上应用稳定性治理的一个方面。

分布式数据库高可用实现的一般思路

分布式数据库在应对宕机和网络分区故障的思路为数据副本机制,
数据副本机制实现的一般思路为主从架构,
主从架构下保证数据一致的机制为复制状态机。

如下为主从架构示意图:
一主两从结构

如下是raft算法对复制状态机的描述

复制状态机通常使用复制日志实现,每个服务器存储一个包含一系列命令的日志,其状态机按顺序执行日志中的命令。 
每个日志中命令都相同并且顺序也一样,因此每个状态机处理相同的命令序列。 这样就能得到相同的状态和相同的输出序列。

复制状态机在正常情况下(即无宕机,网络分区情形)是能够保证主从数据一致的,但是在主宕机的情况下,如何保证集群数据的一致性,这是一个新的问题,后面会在副本数据一致性章节展开说。

宕机情况下的高可用

宕机情况分为两种,一种为主节点宕机,一种为从节点宕机。

主节点宕机

在主从架构的情况下,主节点会是一个单点,当主节点挂掉后,整个系统将无法运行,这时候我们需要对主节点进行主从切换。

主从切换包括发现与切换两个功能,初期我们引入哨兵来实现这两个功能。

单一哨兵机制

哨兵服务会对整体数据库集群进行监控,当主节点挂掉后,选择从节点晋升为主节点并继续提供服务,典型的例子为mysql的MHA,其整体架构如下图。
在这里插入图片描述

哨兵集群

但这又引入了另外一个问题:当哨兵宕机了怎么办?
解决方案是哨兵也做多副本机制,由于决策只能由一个哨兵节点进行,这个节点被称为哨兵集群中的主节点,其余节点为哨兵集群的备份节点,所以主从切换在哨兵集群上也需要一套这样的逻辑来保证哨兵集群的高可用,兜兜转转我们又回到了原地。

整体架构图变成了这样:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ykvuFSBM-1680792798373)(/Users/hancongcong/Desktop/工作/工作日报/博客/分布式数据库稳定性/截屏2023-04-06 下午10.52.45.png)]

哨兵高可用

如果我们单独把哨兵集群拿出来,做其高可用,我们可以使用共识算法对哨兵集群进行选主操作,例如raft,gossip等,这时哨兵集群就做成了高可用集群,如下图所示。

在这里插入图片描述

这时候就出现一个非常有意思的情况,既然哨兵通过分布式共识算法实现了高可用,那么不如直接让数据库主从实例结合分布式共识算法,不需要再部署哨兵节点,直接实现分布式数据库副本的高可用了,现在也是有很多数据库这样做的,例如TIDB的TIKV,使用Raft共识算法进行主从切换与数据同步,最新的redis-cluster的watchdos机制,基于gossip共识协议实现主宕机下的主从切换。

请添加图片描述
redis-cluster watchdogs机制

从节点宕机

从节点宕机的检测,仍然是由哨兵负责,哨兵会在从节点宕机后进行报警。
由于从节点为备份节点,宕机后对整个集群的影响并不大,故大多数从库宕机后,并没有让哨兵重新申请机器制作从库的需要,后续的处理是,如果从库在规定时间内(主库log存在的时间点)重新启动,则从库会继续从主库同步日志,如果从库在规定的时间内未重新启动,则需要重新制作新的从库。

网络分区

网络分区会带来两个问题,

第一个是哨兵与数据库所有机器网络分区后的误判问题,

第二个是哨兵与主节点网络分区后的误判导致集群主从切换,进而导致的脑裂问题。

哨兵高可用一章中,哨兵集群与数据库集群是分开部署的,如果哨兵集群与数据库集群之间的网络产生了分区,那么哨兵集群则无法探测数据库集群的状态,并认定所有机器全部死亡,这时候判断是错误的,可能主数据库还在正常运行。

解决方案正好为哨兵高可用这章描述的方式一样,只要两者结合即可,如果要保证不会出现脑裂问题,共识协议的选择,业界一般选择raft,zab,paxos等分布式共识算法,因为在2n+1台机器的集群中,共识算法能保证m(m <= n)台机器宕机,不会出现脑裂问题。

副本数据一致性

在正常集群运行情况下,复制状态机是可以满足主从副本数据的一致性的,但是当主库出现问题而宕机,集群发生主从切换时,从库晋升,如果主库到从库是全异步复制,则会导致数据的丢失。

如果不想让数据丢失,解决方案之一是数据同步也使用gongs各种分布式共识算法都要求在2n+1的集群中写入n+1台机器,才认定写入成功,则是为了避免数据库在主宕机的情况下主从切换出现数据丢失,当然这一约束也是为了防止脑裂的产生。

万能的共识算法与分布式数据库的高可用

共识算法的优点与缺点

从上面的章节中,我们看到分布式共识算法出现的频率非常高,他解决了分布式数据库中的主从切换问题,还解决了主从节点的数据一致性问题,还解决了网络分区导致的脑裂问题,故我们看到一个不丢失数据的高可用的集群的最终形态(以笔者脑子里的存货所推理出来的最终形态),即以分布式共识算法为基础实现的分布式数据库,业界案例有TIDB,xenon等。
但由于raft,zab,paxos等分布式共识算法数据必须写入n + 1台机器才能够认为写入成功,这导致在一些高性能的数据库上,是无法采用此类算法做高可用,他们在选型上进行了trade off,例如redis cluster,其不能保证脑裂与主宕机时的数据无丢失,但其保留了自身的高性能,其选择gossip算法,只是为了进行集群元数据管理与主库宕机自动容灾。

注:其实共识问题是分布式系统的最基础问题,解决了这个问题,分布式系统便能work as one,像单节点一样工作

共识算法在主库宕机情况下的自动容灾是如何保证数据不丢失的(raft,zab)

大部分的共识算法是通过以下两点进行保证的

  1. 在2n+1的集群中,写入n+1个节点才算写入成功。
  2. 在2n+1的集群中,在m ( m <= n )台机器宕机的情况下,从剩下的n+1台机器中,选出拥有最新日志的那台机器做主(raft)(在剩下的n + 1台机器中,必然有一台是有最新的commit的日志的,找拥有最高的日志的节点,一定包括最新的commit日志),或者选出拥有最新日志的那台机器,然后将其日志同步过来(zab)。

共识算法在网络分区情况下是如何避免脑裂的(raft,zab)

主宕机的情况下,在 2n + 1 的集群中,一定有一个多数派集群,这个集群包含 n + 1 的集群机器,这个多数派集群中,所有机器都同意其作为新的主,这样才能够选主成功,故当一个2n + 1的集群分裂为n,n + 1两个集群,而主在n这个集群内,此时n集群内的主无法完成写入动作,因为一个写入动作需要 n + 1 的机器进行确认,而这时n集群只有n台机器。并且n集群内是无法选出主的,只有n+1的集群可以选出主。

参考资料

xenon

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值