paxos算法_大佬,我懵了!Paxos、Raft不是一致性算法/协议?

作为互联网中的一员,我们时常沉浸在“分布式”的氛围当中——高可用、高可靠、高性能等等词汇随处可见,CAP、BASE、2PC、Paxos、Raft等等名词也能信手捏来。不过,有些词在我们“并不严谨”的传播中逐渐被误用了,或者说含糊不清了。今天,我们来简单聊聊“Consistency”这个词,即一致性。

Paxos、Raft等通常被误称为“一致性算法”。但是“一致性(Consistency)”和“共识(Consensus)”并不是同一个概念。Paxos、Raft等其实都是共识(Consensus)算法。

Leslie Lamport于1998年在ACM Transactions on Computer Systems上发表了一篇《The Part-Time Parliament》[1]的文章,这是Paxos算法第一次公开发表。但是发表之后,很多人还是觉得原来那篇太难理解了,之后Lamport又写了一篇《Paxos Made Simple》[2],当我们想要学习一下Paxos的时候,可以直接看看这篇。

回到正题,我们在《Paxos Made Simple》中搜索“Consistency”一词,如下图所示,其实是毫无匹配结果的。966a89e162f1bb6d4bbfc3f53ef5a30c.png

反观,我们搜索“Consensus”一词的时候,却出现了很多匹配项。e80e92c9bd2cb36c221a6eb841d6aa82.png

也就是说,Paxos论文通篇提都没提Consistency一词,何来的“Paxos is a consistency algorithm”的说法。

与此类似的是,在Raft论文《In Search of an Understandable Consensus Algorithm (Extended Version)》[3]中开头就对Raft给出了明确的定义:Raft is a consensus algorithm....,注意这里是consensus,而不是consistency。34964ef9068b85635632617bfc60784f.png

这时候我们不妨再打开字典。乍眼一看,字典中Consistency和Consenus译意接近,都有“一致”的含义,但是仔细深究又有所不同:Consistency:一致性,Consensus:共识、一致的意见。73457ee6026ac03125f113981db21aae.png

edaf4a07b60967ade80d0e1b76dd94d6.png

从专业的角度来讲,我们通常所说的一致性(Consistency)在分布式系统中指的是对于同一个数据的多个副本,其对外表现的数据一致性,如强一致性、顺序一致性、最终一致性等,都是用来描述副本问题中的一致性的。而共识(Consensus)则不同,简单来说,共识问题是要经过某种算法使多个节点达成相同状态的一个过程。一致性强调结果,共识强调过程。

《分布式系统概念与设计》一书中对共识问题进行了如下定义:为达到共识,每个进程 pi 最初处于未决(undecided)状态,并且提议集合D中的一个值 vi 。进程之间互相通信,交换值。然后,每个进程设置一个决定变量(decision variable)di 的值。在这种情况下,它进入决定(decided)状态。在此状态下,他不再改变di。

下图中给出了参与一个共识算法的3个进程。两个进程提议“继续”, 第三个进程提议“放弃”但随后崩溃。保持正确的两个进程都决定“继续”。(其中i = 1, 2, ……, N; j = 1, 2, ……, N。)7dd8ca167119115d6b04c91ab24816d4.png

共识算法的要求是在每次执行中满足以下条件:

  • 终止性:每个正确进程最终设置它的决定变量。
  • 协定性:所有正确进程的决定值都相同,即如果 pi 和 pj 是正确的并且已进入决定状态,那么 di = dj。
  • 完整性:如果正确的进程都提议同一个值,那么处于决定状态的任何正确进程已选择了该值。

共识问题中所有的节点要最终达成共识,由于最终目标是所有节点都要达成一致,所以根本不存在一致性强弱之分。所以,以后我们看到“Paxos是一个强一致性算法”、“Raft是一个强一致性协议”等类似说法的时候,我们更要以一种“审视”的眼光去看待后面的内容。

在我们大多数人的大多数工作内容中,一致性(Consistency)与共识(Consensus)的差别其实无关痛痒。但是如果我们想抬高一个维度,深入的去研究一下分布式领域的内容,那么这些最基础的概念如果区分不清楚的话,会对后面的学习过程产生很大的阻碍。

越是相近的词汇,越要清楚的区分。就算是同一个单词,也会有不同的含义解析,比如CAP和ACID中的C都是Consistency的缩写,但这两者在各自场景下的含义也并不相同。

  • ACID的C指的是事务中的一致性,在一系列对数据修改的操作中,保证数据的正确性。即数据在事务期间的多个操作中,数据不会凭空的消失或增加,数据的每一个增删改操作都是有因果关系的。比如用户A向用户B转了200块钱,不会出现用户A扣了款,而用户B没有收到的情况。
  • 在分布式环境中,多服务之间的复制是异步,需要一定耗时,不会瞬间完成。在某个服务节点的数据修改之后,到同步到其它服务节点之间存在一定的时间间隔,如果在这个间隔内有并发读请求过来,而这些请求又负载均衡到多个节点,可能会出现从多个节点数据不一致的情况,因为请求有可能会落到还没完成数据同步的节点上。CAP中的C就是为了做到在分布式环境中读取的数据是一致的。

总的来说,ACID的C着重强调单数据库事务操作时,要保证数据的完整和正确性,而CAP理论中的C强调的是对一个数据多个备份的读写一致性。

对于今天的知识点有什么想说的嘛?不妨在留言区留下你的想法。

参考资料

  1. http://lamport.azurewebsites.net/pubs/lamport-paxos.pdf
  2. http://lamport.azurewebsites.net/pubs/paxos-simple.pdf
  3. https://raft.github.io/raft.pdf
  4. 浅谈 CAP 和 Paxos 共识算法
  5. 被误用的“一致性”
  6. 分布式共识(Consensus):Viewstamped Replication、Raft以及Paxos
a6cc24304061cb7d3c38bc7fbc35322a.gif
  • 面试官问:MySQL的自增ID用完了,怎么办?

  • ArrayList插入1000w条数据之后,我怀疑了jvm...

  • 蚂蚁二面,面试官问我零拷贝的实现原理,当场懵了…

a43f3344df9f0c140e0adfe41d4d42b2.png

明天见(。・ω・。)ノ♡
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值