【系统架构】大规模分布式系统的容错架构设计

大规模分布式系统的容错架构设计

假设有一个数据库,数据库里有一张特别大的表,里面有几十亿,甚至上百亿的数据。更进一步说,假设这一张表的数据量多达几十个 TB,甚至上百个 TB,那么如果用 MySQL 之类的数据库,单台数据库服务器上的磁盘可能都不够放这一张表的数据!
在这里插入图片描述

假如你手头有一个超大的数据集,几百 TB!那你还是别考虑传统的数据库技术来存放了。因为用一台数据库服务器可能根本都放不下,所以我们考虑一下分布式存储技术?对了!这才是解决这个问题的办法。

咱们完全可以搞多台机器嘛!比如搞 20 台机器,每台机器上就放 1 / 20 1/20 1/20 的数据。举个例子,比如总共 20TB 的数据,在每台机器上只要把 1TB 就可以了,1TB 应该还好吧?每台机器都可以轻松加愉快的放下这么多数据了。

所以说,把一个超大的数据集拆分成多片,给放到多台机器上去,这就是所谓的分布式存储。
在这里插入图片描述

那分布式存储系统是啥呢?分布式存储系统,当然就是负责把一个超大数据集拆分成多块,然后放到多台机器上来存储,接着统一管理这些分散在多台机器上存储的数据的一套系统。

比如说经典的 Hadoop 就是这类系统,然后 FastDFS 也是类似的。如果你可以脑洞打开,从思想本质共通的层面出发,那你会发现,其实类似 Elasticsearch、Redis Cluster 等等系统,本质都是如此。这些都是基于分布式的系统架构,把超大数据拆分成多片给你存放在多台机器上。

咱们这篇文章是从分布式系统架构层面出发,不拘泥于任何一种技术,所以姑且可以设定:这套分布式存储系统,有两种进程。

  • 一个进程是 Master 节点,就在一台机器上,负责统一管控分散在多台机器上的数据。
  • 另外一批进程叫做 Slave 节点,每台机器上都有一个 Slave 节点,负责管理那台机器上的数据,跟 Master 节点进行通信。

在这里插入图片描述

这个时候又有一个问题了,那么万一上面那 20 台机器上,其中 1 台机器宕机了咋整呢?这就尴尬了,兄弟,这会导致本来完整的一份 20TB 的数据,最后有 19TB 还在了,有 1TB 的数据就搞丢了,因为那台机器宕机了啊。所以说你当然不能允许这种情况的发生,这个时候就必须做一个数据副本的策略。

比如说,我们完全可以给每一台机器上的那 1TB 的数据做 2 个副本的冗余,放在别的机器上,然后呢,万一说某一台机器宕机,没事啊,因为其他机器上还有他的副本。我们来看看这种多副本冗余的架构设计图。
在这里插入图片描述

上面那个图里的深蓝色的 1TB 数据 01,代表的是 20TB 数据集中的第一个 1TB 数据分片。从上图中可以看到,它有 3 个副本,分别在三台机器中都有浅蓝色的方块,代表了它的三个副本。这样的话,一份数据就有了 3 个副本了。其他的数据也是类似。

这个时候我们假设有一台机器宕机了,比如下面这台机器宕机,必然会导致 1TB 数据 01 这个数据分片的其中一个数据副本丢失。如下图所示:
在这里插入图片描述

那这个时候要紧吗?不要紧,因为 1TB 数据 01 这个数据分片,他还有另外 2 个副本在存活的两台机器上呢!所以如果有人要读取数据,完全可以从另外两台机器上随便挑一个副本来读取就可以了,数据不会丢的。

现在有一个问题,比如说有个兄弟要读取 1TB 数据 01 这个数据分片,那么他就会找 Master 节点,说:你能不能告诉我 1TB 数据 01 这个数据分片人在哪里啊?在哪台机器上啊?我需要读他啊!

那么这个时候,Master 节点就需要从 1TB 数据 01 的 3 个副本里选择一个出来,告诉人家说:兄弟,在哪台机器上,有 1 个副本,你可以去那台机器上读 1TB 数据 01 的一个副本就 OK 了。

但是现在的问题是,Master 节点此时还不知道 1TB 数据 01 的副本 3 已经丢失了,那万一 Master 节点还是通知人家去读取一个已经丢失的副本 3,肯定是不可以的。

所以,我们怎么才能让 Master 节点知道副本 3 已经丢失了呢

其实也很简单,每台机器上负责管理数据的 Slave 节点,都每隔几秒(比如说 1 秒)给 Master 节点发送一个 心跳。那么,一旦 Master 节点发现一段时间(比如说 30 秒内)没收到某个 Slave 节点发送过来的心跳,此时就会认为这个 Slave 节点所在机器宕机了,那台机器上的数据副本都丢失了,然后 Master 节点就不会告诉别人去读那个丢失的数据副本。

大家看看下面的图,一旦 Slave 节点宕机,Master 节点收不到心跳,就会认为那台机器上的副本 3 就已经丢失了,此时绝对不会让别人去读那台宕机机器上的副本 3。
在这里插入图片描述

那么此时,Master 节点就可以通知人家去读 1TB 数据 01 的副本 1 或者副本 2,哪个都行,因为那两个副本其实还是在的。举个例子,比如可以通知客户端去读副本 1,此时客户端就可以找那台机器上的 Slave 节点说要读取那个副本 1。

这个时候又有另外一个问题,那就是 1TB 数据 01 这个数据分片此时只有副本 1 和副本 2 这两个副本了,这就不足够 3 个副本啊。因为我们预设的是每个数据分片都得有 3 个副本的。大家想想,此时如何给这个数据分片增加 1 个副本呢?

很简单,Master 节点一旦感知到某台机器宕机,就能感知到某个数据分片的副本数量不足了。此时,就会生成一个副本复制的任务,挑选另外一台机器来从有副本的机器去复制一个副本。

比如看下面的图,可以挑选第四台机器从第二台机器去复制一个副本。
在这里插入图片描述

但是,现在这个复制任务是有了,我们怎么让机器 4 知道呢?其实也很简单,机器 4 不是每秒都会发送一次心跳么?当机器 4 发送心跳过去的时候,Master 节点就通过心跳响应把这个复制任务下发给机器 4,让机器 4 从机器 2 复制一个副本好了。

同样,我们来一张图,看看这个过程:
在这里插入图片描述
看上图,现在机器 4 上是不是又多了一个 1TB 数据 01 的副本 3 ?那么 1TB 数据 01 这个数据分片是不是又变成 3 个副本了?

那反过来,如果说此时机器 3 突然恢复了,他上面也有一个 1TB 数据 01 的副本 3,相当于此时 1TB 数据 01 就有 4 个副本了,副本不就多余了吗?

没关系,一旦 Master 节点感知到机器 3 复活,会发现副本数量过多,此时会生成一个删除副本任务。他会在机器 3 发送心跳的时候,下发一个删除副本的指令,让机器 3 删除自己本地多余的副本就可以了。这样,就可以保持副本数量只有 3 个。

一样的,大家来看看下面的图。
在这里插入图片描述

实际上,这种 数据分片存储 、多副本冗余、宕机感知、自动副本迁移、多余副本删除,这套机制对于 Hadoop、Elasticsearch 等很多系统来说,都是类似的。

所以笔者在这里强烈建议大家,一定好好吸收一下这种分布式系统、中间件系统底层数据容错架构的思想。

  • 7
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
1. 不用增加任何额外硬件投资,纯软件方式实现双机容错,且对备份机无硬件配置要求。 2. 可支持Notes、Exchange、SQL Server、Sybase、Informix、0racle、SAP等多种系统的应用层叠恢复。 3. 采用全球第一套基于NT操作系统容错软件,并同时支持UNIX平台。支持远程灾难备份。 4. 支持共享磁盘阵列柜和扩展镜像两种方式,给用户提供了选择上的灵活性,同时也能适应各种机型、网络结构、软件平台及应用系统。 5. 在扩展镜像或共享磁盘阵列任意方式下,均能实现两台NT服务器各自运行不同应用且相互热备份,即实现双机Active运转模式。 6. 使用共享磁盘阵列柜方式时,最多可以支持16个节点,远远大于其它类似系统所支持的2个节点数。 7. 最大限度地保护用户端的应用连续性。用户的硬件资源(如网卡)及软件资源(如NT操作系统、数据库管理系统、数据库应用系统、电子邮件系统等)均能处于该容错系统的保护之下,当这些被保护资源出现技术故障时,容错系统可随时实施系统资源切换。如此,该容错系统真正实现了用户硬件或是软件资源发生故障时系统及应用层上的在线热切换。 8. 占用系统资源极少,不增加网络负荷,且不打扰任何具体应用系统的任何操作。 9. 真正实现无人值守,全自动地实现应用资源切换,且图形界面操作,简单方便。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

G皮T

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值