1.2 消息队列(4-6)

04 | 利用事务消息实现分布式事务

“事务”:解决消息生产者消费者数据一致性问题。

举例:使用消息队列来异步清理购物车。创建订单时执行了 2 个步骤:

  1. 在订单库中插入一条订单数据,创建订单;
  2. 发消息给消息队列,消息的内容就是刚刚创建的订单。

在这里插入图片描述

问题:订单数据与购物车数据不一致:

  1. 创建了订单,没有清理购物车;
  2. 订单没创建成功,购物车里面的商品却被清掉了。

清理购物车的操作:只要成功执行购物车清理后再提交消费确认即可,如果失败,由于没有提交消费确认,消息队列会自动重试。

关键点集中在订单系统创建订单和发送消息这两个步骤要么都操作成功,要么都失败。

消息队列是如何实现分布式事务的?

事务消息适用于需要异步更新数据对数据实时性要求不太高的场景。

Kafka 和 RocketMQ 都提供了事务相关功能。

在这里插入图片描述

  • 半消息:内容是完整的,区别是:在事务提交之前,对于消费者来说,这个消息是不可见的。
  • 根据本地事务的执行结果决定提交或者回滚事务消息,订单创建成功则提交,创建失败则回滚事务消息

**问题:**第四步提交事务消息时失败了怎么办?

Kafka直接抛出异常,让用户自行处理。

​ 我们可以在业务代码中反复重试提交,直到提交成功,或者删除之前创建的订单进行补偿

RocketMQ 中的分布式事务实现

增加了事务反查的机制来解决事务消息提交失败的问题。

​ 当Broker 没有收到提交或者回滚的请求,Broker 会定期去 Producer 上反查这个事务对应的本地事务的状态,然后根据反查结果决定提交或者回滚这个事务。

​ 反查本地事务的实现,不依赖消息的发送方,即订单服务的某个实例节点上的任何数据。即使发送事务消息的那个订单服务节点宕机了,RocketMQ 可以通过其他订单服务的节点来执行反查,确保事务的完整性。

实现:

​ 业务代码需要实现一个反查本地事务状态的接口,告知RocketMQ 本地事务是成功还是失败。

​ 本例中只要根据消息中的订单 ID,在订单库中查询这个订单是否存在即可,然后返回成功或者失败。

整体流程在这里插入图片描述

05 | 如何确保消息不会丢失?

检测消息丢失的方法——有序性

原理:

在 Producer 端给每个发出的消息附加一个连续递增的序号,然后在 Consumer 端来检查这个序号的连续性。

序号不连续,那就是丢消息了。可以通过缺失的序号来确定丢失的是哪条消息,进一步排查原因。

实现:

在 Producer 发消息之前的拦截器中将序号注入到消息中,在 Consumer 收到消息的拦截器中检测序号的连性。

分布式系统中存在的问题

  1. 像 Kafka 和 RocketMQ 这样的消息队列,它是不保证在 Topic 上的严格顺序的,只保证分区上的消息是有序的,因此发消息的时候必须要指定分区,并且,在每个分区单独检测消息序号的连续性
  2. 当 Producer 是多实例的,不好协调多个 Producer 之间的发送顺序,所以也需要每个 Producer 分别生成各自的消息序号,并且需要附加上 Producer 的标识,在 Consumer 端按照每个 Producer 分别来检测序号的连续性。
  3. Consumer 实例的数量最好和分区数量一致,一一对应,更方便在 Consumer 内检测消息序号的连续性。

确保消息可靠传递

1、生产阶段

​ 消息在 Producer 创建出来,经过网络传输发送到 Broker;

采用请求确认机制,来保证消息的可靠传递:

  • 长时间没收到发送确认响应后,会自动重试,重试再失败,就会以返回值或者异常的方式告知用户。
  • 同步发送时,只要注意捕获异常即可。
  • 异步发送时,则需要在回调方法里进行检查发送结果

2、存储阶段

​ 消息在 Broker 端存储,如果是集群,消息会在这个阶段被复制到其他的副本上。

通过配置 Broker 参数来避免因为宕机丢消息。

  • 单个节点的 Broker,需要配置 Broker 参数,在收到消息后,将消息写入磁盘后再给Producer 返回确认响应,即使发生宕机,消息已经被写入磁盘,也不会丢失消息,恢复后还可以继续消费。例如,在 RocketMQ 中,需要将刷盘方式 flushDiskType 配置为 SYNC_FLUSH 同步刷盘
  • 如果是 Broker 是由多个节点组成的集群,需要将 Broker 集群配置成:至少将消息发送到2 个以上的节点,再给客户端回复发送确认响应。这样当某个 Broker 宕机时,其他的Broker 可以替代宕机的 Broker,也不会发生消息丢失。

3、消费阶段

​ Consumer 从 Broker 上拉取消息,经过网络传输发送到;

确认机制执行完所有消费业务逻辑之后,再发送消费确认。

06 | 如何处理消费过程中的重复消息?

消息传递失败时,发送方会执行重试,重试的过程中就有可能会产生重复的消息。如果没有对重复消息进行处理,就有可能会导致系统的数据出现错误。

消息重复的情况必然存在

MQTT 协议给出了三种传递消息时能够提供的服务质量标准,这三种服务质量从低到高依次是:

  • At most once: 至多一次。消息在传递时,最多会被送达一次。没有消息可靠性保证,允许丢消息。适合对消息可靠性要求不太高的监控场景使用,比如每分钟上报一次机房温度数据,可以接受数据少量丢失。
  • At least once: 至少一次。消息在传递时,至少会被送达一次。不允许丢消息,但允许有少量重复消息。
  • Exactly once:恰好一次。消息在传递时,只会被送达一次,不允许丢失也不允许重复,这个是最高的等级。

大部分消息队列提供的服务质量都是 At least once,包括 RocketMQ、RabbitMQ 和Kafka 都是这样。也就是说,消息队列很难保证消息不重复。

需要我们的代码能接受“消息是可能会重复的”这一现状,通过一些方法来消除重复消息对业务的影响。

用幂等性解决重复消息问题

​ 在消费端,让我们消费消息的操作具备幂等性

幂等(Idempotence) 本来是一个数学上的概念:

如果一个函数 f(x) 满足:f(f(x)) = f(x),则函数 f(x) 满足幂等性。

  • 在计算机领域,被用来描述一个操作、方法或者服务。
  • 一个幂等操作的特点是,其任意多次执行所产生的影响均与一次执行的影响相同。
  • 一个幂等的方法,使用同样的参数,对它进行多次调用和一次调用,对系统产生的影响是一样的。

At least once + 幂等消费 = Exactly once。

将消费的业务逻辑设计成具备幂等性的方法

1、利用数据库的唯一约束实现幂等

​ 使用唯一约束字段,实现只能插入一条记录的操作,达到多次重复操作无法插入,解决消息重复性。

例如把转账单 ID 和账户 ID 这两个字段联合起来创建一个唯一约束,这样对于相同的转账单 ID 和账户 ID,表里至多只能存在一条记录。

2、为更新的数据设置前置条件

​ 给数据变更设置一个前置条件,如果满足条件就更新数据,否则拒绝,在更新数据的时候,同时变更前置条件中需要判断的数据。这样,重复执行这个操作时,由于第一次更新数据的时候已经变更了前置条件中需要判断的数据,不满足前置条件,则不会重复执行更新数据操作。

​ 通用的方法是,给数据增加一个版本号属性,更新前,比较当前数据的版本号是否和消息中的版本号一致,不一致就拒绝更新数据,更新数据的同时将版本号 +1,一样可以实现幂等更新。

3、记录并检查操作 通用性最强,实现难度和复杂度较高

​ 在执行数据更新操作之前,先检查一下是否执行过这个更新操作。
实现方法:

​ 每条消息指定一个全局唯一的 ID,消费时,先根据这个 ID 检查这条消息是否有被消费过,如果没有消费过,才更新数据,然后将消费状态置为已消费。

注意:

​ 分布式系统中难以维护全局唯一的ID并且多消费实例容易出现数据错误等问题,可通过加锁和事务等方式解决。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值