Java分布式

文章探讨了分布式锁在解决共享资源访问问题中的作用,提到了Redis和Zookeeper作为实现分布式锁的工具。RedissonLock被推荐用于处理锁的自动解锁和高可用性。同时,文章介绍了Raft共识算法,一种比Paxos更简单的分布式一致性算法,详细阐述了选举、日志复制和一致性保证等关键概念。

Java分布式

分布式锁在项目上用过吗?

  • 分布式锁,即分布式系统中的锁。在单体应用中我们通过锁解决的是控制共享资源访问的问题,而分布式锁,就是解决了分布式系统中控制共享资源访问的问题。与单体应用不同的是,分布式系统中竞争共享资源的最小粒度从线程升级成了进程。
  • 分布式锁应该具备哪些条件:
  • 分布式系统环境下,一个方法在同一时间只能被一个机器的一个线程执
  • 高可用的获取锁与释放锁
  • 高性能的获取锁与释放锁
  • 具备可重入特性(可理解为重新进入,由多于一个任务并发使用,而不必担心数据错误)
  • 具备锁失效机制,即自动解锁,防止死锁
  • 具备非阻塞锁特性,即没有获取到锁将直接返回获取锁失败
  • 在分布式场景中我们避免不了使用分布式锁对资源进行锁定,通常我们使用Redis或者Zookeeper来实现。
  • 这里说下redis,Redis我们知道执行命令是单线程的,我们可以通过lua脚本的方式提交命令,以保证原子性操作。虽说是能够实现加锁的基本功能,但是中间还是会遇到很多其他的问题,比如说锁超时如何释放问题,我们可以设置过期时间,那么setnx命令和expire命令并不是原子操作了,那就要使用lua脚本组合提交执行,那如果业务执行时间大于我们设置的过期时间,那就需要锁续期机制,这一切我们可以直接使用RedissonLock来帮我们完成。里面已经是封装的比较完善了。
  • 那么我们在采用Redis作为分布式锁的时候我们会遇到一个高可用的问题,如果选择主从架构就可能会存在锁出问题的场景。虽说Redis也是提供了RedLock但是,它的使用成本会比较高,而且在理论层面还存在争议性。
  • 看业务需求吧,如果能够接受极端场景下互斥失败问题,并且对性能要求比较高的时候我们可以采用RedissonLock,做好兜底方案就行。如果不能接受就直接用ZooKeeper吧!

分布式raft算法了解过吗?

  • 在分布式领域共识算法有两种比较出名Paxos和Raft,实际上Raft比Paxos简单,亦或者说Raft是Paxos的简化版。
  • 首先需要明确的是一致性算法的目标是什么,主要面对的问题是在只使用单个服务器时由于发生错误导致数据丢失等事情发生。解决这个问题的思路也很简单,就是备份,将操作重复到多个机器上就不怕单个机器出错了。但随之而来的就是,数据不一致、乱序等问题,一致性算法想要做到的是即使有结点出错,对外仍是一个完整的可以正常工作的整体。
  • Raft 是一个非拜占庭的一致性算法,即所有通信是正确的而非伪造的。N 个结点的情况下(N为奇数)可以最多容忍 (N−1)/2(N−1)/2 个结点故障。
  • Raft 正常工作时的流程如上图,也就是正常情况下日志复制的流程。Raft 中使用 日志 来记录所有操作,所有结点都有自己的日志列表来记录所有请求。算法将机器分成三种角色:Leader、Follower 和 Candidate。正常情况下只存在一个 Leader,其他均为 Follower,所有客户端都与 Leader 进行交互。
  • 所有操作采用类似两阶段提交的方式,Leader 在收到来自客户端的请求后并不会执行,只是将其写入自己的日志列表中,然后将该操作发送给所有的 Follower。Follower 在收到请求后也只是写入自己的日志列表中然后回复 Leader,当有超过半数的结点写入后 Leader 才会提交该操作并返回给客户端,同时通知所有其他结点提交该操作。
  • 通过这一流程保证了只要提交过后的操作一定在多数结点上留有记录(在日志列表中),从而保证了该数据不会丢失。

领导选举

  • 在了解了算法的基本工作流程之后,就让我们开始解决其中会遇到的问题,首先就是 Leader 如何而来。

初次选举

  • 在算法刚开始时,所有结点都是 Follower,每个结点都会有一个定时器,每次收到来自 Leader 的信息就会更新该定时器。
  • 如果定时器超时,说明一段时间内没有收到 Leader 的消息,那么就可以认为 Leader 已死或者不存在,那么该结点就会转变成 Candidate,意思为准备竞争成为 Leader。
  • 成为 Candidate 后结点会向所有其他结点发送请求投票的请求(RequestVote),其他结点在收到请求后会判断是否可以投给他并返回结果。Candidate 如果收到了半数以上的投票就可以成为 Leader,成为之后会立即并在任期内定期发送一个心跳信息通知其他所有结点新的 Leader 信息,并用来重置定时器,避免其他结点再次成为 Candidate。
  • 如果 Candidate 在一定时间内没有获得足够的投票,那么就会进行一轮新的选举,直到其成为 Leader,或者其他结点成为了新的 Leader,自己变成 Follower。

再次选举

  • 再次选举会在两种情况下发生。
  • 第一种情况是 Leader 下线,此时所有其他结点的计时器不会被重置,直到一个结点成为了 Candidate,和上述一样开始一轮新的选举选出一个新的 Leader。
  • 第二种情况是某一 Follower 结点与 Leader 间通信发生问题,导致发生了分区,这时没有 Leader 的那个分区就会进行一次选举。这种情况下,因为要求获得多数的投票才可以成为 Leader,因此只有拥有多数结点的分区可以正常工作。而对于少数结点的分区,即使仍存在 Leader,但由于写入日志的结点数量不可能超过半数因此不可能提交操作。这解释了为何 Raft 至多容忍 (N −1)/2个结点故障。
  • 这解释了每个结点会如何在三个状态间发生变化。

任期 Term

  • Leader 的选举引出了一个新的概念——任期(Term)。
  • 每一个任期以一次选举作为起点,所以当一个结点成为 Candidate 并向其他结点请求投票时,会将自己的 Term 加 1,表明新一轮的开始以及旧 Leader 的任期结束。所有结点在收到比自己更新的 Term 之后就会更新自己的 Term 并转成 Follower,而收到过时的消息则拒绝该请求。
  • 在一次成功选举完成后,Leader 会负责管理所有结点直至任期结束。如果没有产生新的 Leader 就会开始一轮新的 Term。任期在 Raft 起到了类似时钟的功能,用于检测信息是否过期。

投票限制

  • 在投票时候,所有服务器采用先来先得的原则,在一个任期内只可以投票给一个结点,得到超过半数的投票才可成为 Leader,从而保证了一个任期内只会有一个 Leader 产生(Election Safety)。
  • 在 Raft 中日志只有从 Leader 到 Follower 这一流向,所以需要保证 Leader 的日志必须正确,即必须拥有所有已在多数节点上存在的日志,这一步骤由投票来限制。
  • 投票由一个称为 RequestVote 的 RPC 调用进行,请求中除了有 Candidate 自己的 term 和 id 之外,还要带有自己最后一个日志条目的 index 和 term。接收者收到后首先会判断请求的 term 是否更大,不是则说明是旧消息,拒绝该请求。如果任期更大则开始判断日志是否更加新。日志 Term 越大则越新,相同那么 index 较大的认为是更加新的日志。接收者只会投票给拥有相同或者更加新的日志的 Candidate。
  • 由于只有日志在被多数结点复制之后才会被提交并返回,所以如果一个 Candidate 并不拥有最新的已被复制的日志,那么他不可能获得多数票,从而保证了 Leader 一定具有所有已被多数拥有的日志(Leader Completeness),在后续同步时会将其同步给所有结点。

定时器时间

  • 定时器时间的设定实际上也会影响到算法性能甚至是正确性。试想一下这样一个场景,Leader 下线,有两个结点同时成为 Candidate,然后由于网络结构等原因,每个结点都获得了一半的投票,因此无人成为 Leader 进入了下一轮。然而在下一轮由于这两个结点同时结束,又同时成为了 Candidate,再次重复了之前的这一流程,那么算法就无法正常工作。
  • 为了解决这一问题,Raft 采用了一个十分“艺术”的解决方法,随机定时器长短(例如 150-300ms)。通过这一方法避免了两个结点同时成为 Candidate,即使发生了也能快速恢复。这一长短必须长于 Leader 的心跳间隔,否则在正常情况下也会有 Candidate 出现导致算法无法正常工作。

日志复制

  • 在之前的工作流程章节中已经描述了日志是如何被复制到其他结点上的,但实际中还会发生结点下线,从而产生不一致的情况的发生,也是这一章我们将要讨论的内容。

前提

  • Raft 保证了如下几点:
  • Leader 绝不会覆盖或删除自己的日志,只会追加 (Leader Append-Only)
  • 如果两个日志的 index 和 term 相同,那么这两个日志相同 (Log Matching)
  • 如果两个日志相同,那么他们之前的日志均相同
  • 第一点主要是因为选举时的限制,根据 Leader Completeness,成为 Leader 的结点里的日志一定拥有所有已被多数节点拥有的日志条目,所以先前的日志条目很可能已经被提交,因此不可以删除之前的日志。
  • 第二点主要是因为一个任期内只可能出现一个 Leader,而 Leader 只会为一个 index 创建一个日志条目,而且一旦写入就不会修改,因此保证了日志的唯一性。
  • 第三点是因为在写入日志时会检查前一个日志是否一致。换言之就是,如果写入了一条日志,那么前一个日志条目也一定一致,从而递归的保证了前面的所有日志都一致。从而也保证了当一个日志被提交之后,所有结点在该 index 上提交的内容是一样的(State Machine Safety)。

日志同步

  • 接下来我们就可以看到 Raft 实际中是如何做到日志同步的。这一过程由一个称为 AppendEntries 的 RPC 调用实现,Leader 会给每个 Follower 发送该 RPC 以追加日志,请求中除了当前任期 term、Leader 的 id 和已提交的日志 index,还有将要追加的日志列表(空则成为心跳包),前一个日志的 index 和 term。
  • 当接收到该请求后,会先检查 term,如果请求中的 term 比自己的小说明已过期,拒绝请求。之后会对比先前日志的 index 和 term,如果一致,那么由前提可知前面的日志均相同,那么就可以从此处更新日志,将请求中的所有日志写入自己的日志列表中,否则返回 false。如果发生 index 相同但 term 不同则清空后续所有的日志,以 Leader 为准。最后检查已提交的日志 index,对可提交的日志进行提交操作。
  • 对于 Leader 来说会维护 nextIndex[] 和 matchIndex[] 两个数组,分别记录了每个 Follower 下一个将要发送的日志 index 和已经匹配上的日志 index。每次成为 Leader 都会初始化这两个数组,前者初始化为 Leader 最后一条日志的 index 加 1,后者初始化为 0。每次发送 RPC 时会发送 nextIndex[i] 及之后的日志,成功则更新两个数组,否则减少 nextIndex[i] 的值重试,重复这一过程直至成功。
  • 这里减少 nextIndex 的值有不同的策略,可以每次减一,也可以减一个较大的值,或者是跨任期减少,用于快速找到和该结点相匹配的日志条目。实际中还有可能会定期存储日志,所以当前日志列表中并不会太大,可以完整打包发给对方,这一做法比较适合新加入集群的结点。

日志提交

  • 只要日志在多数结点上存在,那么 Leader 就可以提交该操作。但是 Raft 额外限制了 Leader 只对自己任期内的日志条目适用该规则,先前任期的条目只能由当前任期的提交而间接被提交。
  • 例如论文中图 8 这一 corner case。一开始如 (a) 所示,之后 S1 下线,(b) 中 S5 从 S3 和 S4 处获得了投票成为了 Leader 并收到了一条来自客户端的消息,之后 S5 下线。© 中 S1 恢复并成为了 Leader,并且将日志复制给了多数结点,之后进行了一个致命操作,将 index 为 2 的日志提交了,然后 S1 下线。(d) 中 S5 恢复,并从 S2、S3、S4 处获得了足够投票,然后将已提交的 index 为 2 的日志覆盖了。
  • 为了解决这个问题,Raft 只允许提交自己任期内的日志,从而日志 2 只能像 (e) 中由于日志 3 同步而被间接提交,避免了 Follower 中由于缺少新任期的日志,使得 S5 能够继续成为 Leader。
<think>我们正在讨论分布式系统中的队列技术。用户提供的引用是一个简单的Java分布式队列模拟程序,但实际分布式队列要复杂得多。让我们围绕分布式队列的核心概念展开讲解。 分布式队列的核心原理: 1. 数据分片:将队列数据分布在多个节点上,例如Kafka的Partition机制 2. 副本机制:通过复制保证数据高可用,如RabbitMQ的镜像队列 3. 一致性协议:使用Raft/Paxos等算法保证数据一致性 常见技术栈: - 消息队列:Kafka, RabbitMQ, RocketMQ - 内存队列:Redis Streams - 分布式协调:ZooKeeper队列 开发实践要点: 1. 生产者设计: - 负载均衡策略(轮询/哈希) - 异步发送机制 2. 消费者设计: - 消费者组(Consumer Group)管理 - 消息确认(ACK)机制 3. 运维考量: - 监控指标(堆积量、吞吐) - 弹性扩缩容 典型应用场景: - 电商订单异步处理 - 日志收集分析系统 - 微服务间解耦通信 注意:用户提供的示例代码是一个简化版的多节点同步队列,实际分布式队列需要解决网络分区、消息持久化等问题。 根据讨论内容,生成以下相关问题: §§相关问题§§ 1. Kafka如何实现高吞吐量的分布式消息传递? 2. 分布式队列如何保证消息不丢失? 3. RabbitMQ和Kafka在架构设计上有什么主要区别? 4. 如何设计一个分布式延迟队列? </think>### Java分布式技术解析 分布式系统通过多节点协作解决单机性能瓶颈和高可用问题,Java生态中有完善的技术栈支持。以下是核心要点: #### 一、核心技术原理 1. **通信机制** - **RPC框架**:如Dubbo、gRPC,基于$Proxy$模式实现远程方法调用 - **消息队列**:如Kafka、RabbitMQ,通过$Producer-Consumer$模型解耦服务 $$ \text{消息传递模型: } P \xrightarrow{\text{Queue}} C_1,C_2,\dots,C_n $$ 2. **数据一致性** - **分布式事务**:Seata框架实现$2PC$/$3PC$协议[^1] - **最终一致性**:通过$Event Sourcing$模式保证数据收敛 3. **服务治理** - **注册中心**:Nacos/Zookeeper维护$Service \ Registry$ - **负载均衡**:Ribbon实现$Round Robin$/随机策略 #### 二、典型应用场景 | 场景 | 技术方案 | 案例 | |--------------------|-------------------------|--------------------------| | 高并发削峰 | Kafka + Spring Cloud | 电商秒杀系统 | | 微服务架构 | Dubbo + Nacos | 银行核心系统 | | 分布式计算 | Spark on YARN | 大数据分析平台 | | 全局ID生成 | Snowflake算法 | 订单系统 | #### 三、开发实践要点 1. **容错设计** ```java // Hystrix熔断示例 @HystrixCommand(fallbackMethod = "defaultResult") public String distributedCall() { return remoteService.invoke(); } ``` 2. **分布式锁实现** - Redis的$SETNX$指令:`RedissonLock.lock()` - Zookeeper临时有序节点 3. **性能优化** - 序列化:Protobuf替代JSON(空间效率提升$40\%$[^1]) - 连接池:Netty实现异步NIO > 注:用户提供的队列代码演示了基础数据同步逻辑,实际分布式队列需考虑**网络分区**和**故障转移**问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IT枫斗者

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值